Werden Deepfake-Bedrohungen die Cybersicherheit im Jahr 2025 gefährden?

Die digitale Landschaft entwickelt sich in beispiellosem Tempo – auch die damit verbundenen Bedrohungen. Zu den besorgniserregendsten Gefahren im Jahr 2025 zählt die Deepfake-Technologie. Ursprünglich für Unterhaltung und kreative Inhalte entwickelt, haben sich Deepfakes schnell zu einem großen Cybersicherheitsrisiko entwickelt. Gefälschte Videos, Audiodateien und Bilder werden zunehmend eingesetzt, um Einzelpersonen und Organisationen zu täuschen, was zu Identitätsbetrug, Finanzbetrug und der Verbreitung von Fehlinformationen führt.
Einst als Nischentool angesehen, sind Deepfakes heute erschreckend häufig in Phishing-E-Mails, Chat-Nachrichten und beim Betrug mit imitierten Stimmen anzutreffen. Die Technologie ist so überzeugend, dass herkömmliche Cybersicherheitsmaßnahmen oft nicht ausreichen. Daher müssen Unternehmen dringend die Mitarbeiterschulung überdenken und ihre Abwehrmaßnahmen stärken.
Das Ausmaß der Bedrohung ist real. Im Februar 2024 verlor ein Unternehmen mit Sitz in Singapur 25 Millionen US-Dollar, als ein Deepfake der sich als Finanzvorstand ausgab, einen Mitarbeiter dazu brachte, Geld auf ein betrügerisches Konto zu überweisen. Nur wenige Monate später nutzte ein nordkoreanischer Bedrohungsakteur Berichten zufolge Deepfake-Technologie, um sich als Bewerber auszugeben – und wäre beinahe vom Cybersicherheitsunternehmen KnowBe4 eingestellt worden.
Diese Vorfälle verdeutlichen einen wachsenden Trend: Deepfake-basierter Betrug zielt nicht mehr nur auf Führungskräfte ab – er wird auch eingesetzt, um ganze Organisationen zu infiltrieren. Ob finanzieller Gewinn oder Cyberspionage: das Risiko wächst.
Umgang mit Verantwortung
Die Bekämpfung der Deepfake-Bedrohung beschränkt sich nicht nur auf die Zuweisung von Schuldigen – sie erfordert ein umfassenderes Verständnis der Schwächen der aktuellen Abwehrmaßnahmen. Tatsächlich fehlen vielen Unternehmen noch immer die technologischen Werkzeuge und strategischen Rahmenbedingungen, um diesem wachsenden Risiko wirksam entgegenzuwirken. Oft fehlt eine klare Analyse der tatsächlichen Schwachstellen. Liegt die Schwachstelle in der Endgerätesicherheit? In der Telekommunikationsplattform? Sind die Mitarbeiter einfach unzureichend vorbereitet oder fehlt es an der mangelnden Schulung des Unternehmens?
Diese Unsicherheiten unterstreichen die Notwendigkeit einer proaktiven und vielschichtigen Reaktion. Unternehmen müssen in erster Linie in umfassende Schulungs- und Sensibilisierungsprogramme für ihre Mitarbeiter investieren, um ihnen zu helfen, Manipulationen durch Deepfakes zu erkennen. Gleichzeitig müssen die Cybersicherheitsmaßnahmen umfassend verstärkt werden – von der E-Mail-Filterung über die mobile Sicherheit bis hin zum Endpunktschutz –, um zu verhindern, dass Angreifer Zugriff erhalten und sich als interne Mitarbeiter oder vertrauenswürdige Partner ausgeben.
Ein gesundes Misstrauen mit Fokus auf KI schulen
Vor einigen Jahren – das Risiko besteht jedoch weiterhin – begannen SMS-Betrüger, Nutzer mit betrügerischen Nachrichten zu überfluten, die sich als vertrauenswürdige Dienste wie Banken, UPS oder FedEx ausgaben. Infolgedessen lernten die Menschen, unerwarteten Textnachrichten gegenüber skeptisch zu sein. Später verbreitete sich E-Mail-Phishing, und die Überprüfung der Absenderdaten wurde zur Selbstverständlichkeit, bevor man auf eine Nachricht klickte oder antwortete.
Heute jedoch hat sich die Bedrohung auf Video und Audio verlagert. Und wir sind nicht vollständig vorbereitet. Im Gegensatz zu Texten oder E-Mails bergen audiovisuelle Inhalte immer noch ein hohes Maß an implizitem Vertrauen. Künstliche Intelligenz hat sich so weit entwickelt, dass ein Cyberkrimineller ein absolut überzeugendes Deepfake-Video erstellen könnte – beispielsweise das den Ehepartner eines CEOs in einer kompromittierenden Situation zeigt – und so eine Panikreaktion auslösen könnte, die dazu verleitet Standardprotokolle zu umgehen.
Deshalb müssen Sicherheitsschulungen jetzt darauf ausgerichtet sein, eine Kultur der Skepsis zu schaffen. Mitarbeiter müssen visuellen und akustischen Inhalten mit der gleichen Vorsicht begegnen, die wir es bei E-Mails und Textnachrichten gelernt haben. Unternehmen sollten ihren Mitarbeitern die Anwendung der „Zwei-Faktor-Authentifizierung“ beibringen: die Überprüfung von Anfragen über einen zweiten, unabhängigen und vertrauenswürdigen Kanal – einen, den Cyberkriminelle wahrscheinlich nicht kompromittieren werden.
In der Praxis könnte dies bedeuten, dass Sie zur Bestätigung einer videobasierten Anfrage einen kurzen Anruf tätigen und dabei eine Telefonnummer verwenden, die aus einem internen Verzeichnis und nicht aus der verdächtigen Kommunikation selbst stammt.
Ein Zero-Trust-Modell verstärkt diese Denkweise: Keine Aktion oder Anfrage wird standardmäßig als vertrauenswürdig eingestuft. Es kombiniert Multi-Faktor-Authentifizierung (MFA), Verhaltensanalyse und strenge Zugriffskontrollen, um die Gefährdung zu begrenzen. Dennoch bleibt menschliches Versagen die häufigste Schwachstelle.
Deshalb muss der Kampf gegen Deepfakes menschliche Wachsamkeit mit technologischer Unterstützung verbinden. KI-gestützte Tools, wie beispielsweise fortschrittliche Sprach- oder Videoquellen-Verifizierungssysteme, können helfen, synthetische Inhalte zu erkennen, die dem menschlichen Auge möglicherweise entgehen. Denn Deepfakes sind nicht nur ein technisches, sondern auch ein menschliches Problem.
Die vier größten Deepfake-Bedrohungen für die Cybersicherheit im Jahr 2025
Business Email Compromise (BEC):
Wie in jüngsten, viel beachteten Fällen zu sehen war, können Deepfake-Videos und Audioaufnahmen überzeugend die Identität von Führungskräften oder Partnern imitieren und Mitarbeiter dazu verleiten, Geld zu überweisen oder vertrauliche Informationen preiszugeben.
Identitätsdiebstahl und betrügerische Transaktionen:
Cyberkriminelle nutzen Deepfakes, um biometrische Verifizierungssysteme zu umgehen und sich so unbefugten Zugriff auf Bankkonten, Kreditdienste und digitale Geldbörsen zu verschaffen – was zu erheblichen finanziellen Verlusten führt.
Politische Manipulation und Desinformation:
Regierungen und Institutionen sind zunehmend anfällig für Desinformation durch Deepfakes. Gefälschte Videos von Politikern, CEOs oder Persönlichkeiten des öffentlichen Lebens können dazu verwendet werden, falsche Narrative zu verbreiten, die öffentliche Meinung zu beeinflussen oder das Vertrauen im Wahlkampf zu untergraben.
Umgehung biometrischer Sicherheit:
Deepfake-Technologie ist mittlerweile so ausgefeilt, dass sie Gesichtserkennungs- und Stimmauthentifizierungssysteme täuschen kann. Unternehmen, die stark auf biometrische Verifizierung setzen, sind diesem neuen Risiko besonders ausgesetzt.
Data Loss Prevention könnte beim Schutz vor Deepfakes helfen
Der Einsatz von Data Loss Prevention (DLP)-Technologie könnte eine der wirksamsten Abwehrmaßnahmen gegen Deepfakes darstellen. Laut Prognosen der Radicati Group wird der DLP-Markt voraussichtlich um fast 65 % wachsen, von 1,24 Milliarden US-Dollar im Jahr 2019 auf 3,5 Milliarden US-Dollar bis 2025.
DLP-Lösungen werden heute vor allem zur Überwachung und zum Schutz sensibler Daten in Cloud-basierten Repositorien eingesetzt. In Echtzeitgesprächen werden sie jedoch noch nicht flächendeckend eingesetzt – ein Bereich, der entscheidend werden könnte, um Mitarbeiter vor der unbeabsichtigten Weitergabe vertraulicher Informationen durch Deepfake-Manipulationen zu schützen.
Da sich Deepfake-Technologien ständig weiterentwickeln, müssen Unternehmen nicht nur die Aktivitäten überwachen, sondern auch ihre Cybersicherheitsstrategien flexibel anpassen. Dies erfordert einen ausgewogenen Ansatz: Sensibilisierung und Schulung der Mitarbeiter mit robusten, flexiblen Tools und mehrschichtigen Sicherheitsmaßnahmen.



