Deepfake-Phishing trifft Sparkassen: BKA warnt vor KI-Video-Calls

Deepfake, Phishing – Frau beim Deepfake-Video-Call auf dem Smartphone – Phishing-Angriff im Banking
Echtzeit-Deepfakes im Video-Call: Was wie ein Bankberater aussieht, ist oft KI. (Symbolbild)

Ein Video-Call vom „Bankberater“. Freundlich. Professionell. Das Gesicht stimmt. Die Stimme stimmt. Das Konto danach nicht mehr. Über 200 Sparkassen-Kunden in Deutschland erlebten genau das – und BKA sowie BaFin schlagen Alarm, während KI-generierte Echtzeit-Deepfakes den Phishing-Angriff auf eine neue Eskalationsstufe heben.

Inhalt

Der Angriff läuft live – und niemand merkt es

Stellen Sie sich vor: Ihr Telefon klingelt. Videoeinwahl. Ein Mensch in Sparkassen-Polo, ruhig, sachlich, mit Ihrem Namen auf den Lippen. Er erklärt, Ihr Konto zeige verdächtige Aktivitäten. Handlungsbedarf. Sofort. Plot Twist: Die Person existiert nicht. Was Sie sehen, ist ein KI-generiertes Echtzeit-Deepfake – trainiert auf öffentlich verfügbaren Fotos und Videos des echten Beraters.

Genau dieses Szenario ist seit März 2026 in Deutschland Realität. Das BKA warnte im April 2026 vor einer massiven KI-Phishing-Welle, die Kunden von Sparkassen, Volksbanken, Deutscher Bank und N26 trifft. Die Täter kombinieren personalisierte Mails mit Echtzeit-Video-Calls, in denen KI-generierte Avatare live sprechen und reagieren. BKA-Präsident Holger Münch brachte es auf den Punkt: „Selbst Video-Anrufe sind kein sicherer Identitätsnachweis mehr.“

Das Pikante daran: Die technische Hürde ist dramatisch gesunken. Was 2022 noch Stunden Renderzeit brauchte, läuft heute in Echtzeit auf handelsüblicher Hardware. Soziale Netzwerke, Unternehmenswebsites, LinkedIn-Profile – sie alle liefern das Trainingsmaterial frei Haus.

Was die Zahlen tatsächlich belegen

Brisant ist die Entwicklungskurve. Laut dem Signicat-Bericht vom April 2026 stieg die Zahl von Deepfake-Vorfällen im Finanzsektor zwischen 2023 und 2025 um 2.137 Prozent – zugegeben von einer niedrigen Ausgangsbasis, aber der Trend ist eindeutig. Deepfakes machen weltweit bereits rund 6,5 Prozent aller Identitätsbetrugsfälle aus; in Europa sind sie laut demselben Bericht mit 42 Prozent der aufgedeckten Fälle die häufigste Form KI-basierten Betrugs.

Der Schaden in Deutschland: Der aktuelle Wissensstand nach BKA-Angaben spricht von einem niedrigen Millionenbetrag seit Beginn der Welle im März 2026. Die im Themen-Briefing genannten 1,2 Millionen Euro für Sparkassen-Kunden decken sich mit dieser Größenordnung, sind aber von den vorliegenden Quellen nicht exakt auf diesen Betrag verifiziert – ein Punkt, den ich an dieser Stelle klar benennen will, weil Panikmache mit aufgebauschten Zahlen niemandem hilft.

Zum Vergleich: Im Januar 2024 verlor das britische Ingenieurbüro Arup 25,6 Millionen US-Dollar, nachdem ein Mitarbeiter über einen gefälschten Echtzeit-Video-Call zu 15 Überweisungen bewegt wurde. Das ist kein Ausreißer mehr. Es ist das Playbook. Und es funktioniert.

Karim Toubba, Geschäftsführer von LastPass, bezifferte den Anstieg in einem Statement vom März 2026 auf „fast 3.000 Prozent in den letzten zwei Jahren“. Das BKA bestätigt diese Einschätzung in seiner aktuellen Warnung und hebt hervor, dass KI inzwischen die Sprachbarriere für internationale Tätergruppen vollständig eliminiert – kein Akzent, keine Grammatikfehler, kein klassisches Phishing-Warnsignal mehr.

Social Engineering auf Steroiden: So läuft der Angriff ab

Der Ablauf folgt einem klaren Muster. Phase eins: Reconnaissance. Die Täter scrapen öffentliche Daten – Sparkassen-Berater-Profile auf der Institutswebsite, LinkedIn-Einträge, YouTube-Beratungsvideos der Bank. Daraus entsteht das Deepfake-Modell. Phase zwei: Kontext-Phishing. Eine personalisierte Mail trifft beim Opfer ein, mit korrektem Namen, korrekter IBAN-Endung und einem konkreten Anlass – etwa eine angebliche Sicherheitsprüfung nach dem neuen EU-Zahlungsrahmen.

Phase drei ist der Clou: Der Video-Call. Das Opfer sieht ein vertrautes Gesicht, hört eine vertraute Stimme. Der KI-Avatar agiert im Dialog, reagiert auf Rückfragen, baut Druck auf. „Ihr Konto wird in 24 Stunden gesperrt, wenn Sie die Verifikation nicht abschließen.“ Classic Social Engineering – nur jetzt mit perfekt gefälschtem Gesicht. Der Zeitdruck verhindert kritisches Nachdenken. Die Kombination aus visuellem Vertrauen und emotionalem Stress ist tödlich für die Urteilsfähigkeit.

Wenig überraschend: 51 Prozent der deutschen Unternehmen meldeten laut Thales Data Threat Report 2026 bereits Deepfake-Angriffe auf ihre Organisation – ein Anstieg um 53 Prozent gegenüber dem Vorjahr. Das Social Engineering funktioniert, weil das menschliche Gehirn visuelle Informationen als besonders vertrauenswürdig einstuft. Ein Telefonanruf weckt Skepsis. Ein freundliches Gesicht im Video schaltet die Wachsamkeit ab.

Warum Banken defensiv hinterherhinken

Das Pikante daran, strukturell betrachtet: Nur 22 Prozent der Finanzinstitute setzen laut Sumsub Identity Fraud Report 2025 überhaupt KI-Tools zur Betrugsprävention ein. Moderne Erkennungssysteme – etwa verhaltensbasierte Analyse oder Biometrie-Spoofing-Erkennung – nutzen gerade einmal 10 Prozent der Banken. Die Angreifer sind technologisch im Vorteil.

Die Deutsche Kreditwirtschaft formuliert das Problem nüchtern: „Vor allem bei der digitalen Identitätsprüfung, Video-Legitimation oder Kundenkommunikation entstehen erhebliche Risiken.“ Gemeint ist: Genau die Kanäle, die Banken in den letzten Jahren als digitale Kundenservice-Schnittstelle ausgebaut haben – Video-Ident, Online-Legitimation, digitaler Beraterkanal – werden jetzt zur Angriffsfläche.

Wells Fargo wies im April 2026 auf ein weiteres Problem hin: Generative KI eliminiert traditionelle Phishing-Warnsignale wie Grammatikfehler, schlechte Formatierung oder seltsame Absenderadressen. Das BSI dokumentiert in seiner aktuellen Sicherheitslage für Verbraucher die zunehmende Qualität KI-generierter Angriffskommunikation und empfiehlt konkrete Gegenmaßnahmen für Privatpersonen.

Meiner Einschätzung nach ist das Kernproblem kein technisches – es ist ein Incentive-Problem. Banken bauen digitale Kanäle auf, weil das skaliert und Kosten spart. Sicherheitsinvestitionen für Erkennungssysteme skalieren aber nicht gleich attraktiv in Quartalsberichten. Solange keine regulatorischen Zähne hinter den Anforderungen stecken, bleibt die Schutzlücke.

IT-Sicherheitsanalyst überwacht Deepfake-Phishing-Angriffe auf Banking-Systeme
Sicherheitsteams müssen Deepfake-Angriffe in Echtzeit erkennen – die Tools fehlen oft. (Symbolbild)

Deepfake erkennen: Was tatsächlich hilft

Deepfake-Videos sind nicht unfehlbar. Aktuelle Systeme zeigen noch messbare Artefakte, wenn man weiß, worauf man achten muss. Der Blinkreflex ist ein klassischer Schwachpunkt – zu regelmäßig, zu selten oder komplett ausbleibend. Haarränder und Ohren werden bei Bewegung unscharf. Lippensynchronisation läuft bei schnellem Sprechtempo hinterher. Hintergrundbeleuchtung flackert inkonsistent.

Das Problem: Im Stress eines angeblichen Kontosperrungsanrufs schaut niemand auf Blinkfrequenzen. Deshalb sind technische Erkennungsmerkmale für den Durchschnittsnutzer im Alltag nur begrenzt hilfreich. Praktikabler sind Verhaltensregeln.

  • Nie unter Zeitdruck handeln. Jede seriöse Bank akzeptiert einen Rückruf über die offizielle Nummer auf der Karten-Rückseite oder der Website.
  • Video-Calls initiieren, nicht akzeptieren. Rufen Sie selbst über die offizielle App oder Nummer zurück – nie über einen im Anruf genannten Kontakt.
  • Codewort vereinbaren. Manche Banken bieten persönliche Sicherheitsworte an – das schützt gegen fremde Identitäten.
  • Zweiten Kanal nutzen. Parallelruf über die Bankhotline während des verdächtigen Calls identifiziert Fakes sofort.
  • TANs niemals telefonisch. Kein Legitimationsvorgang einer deutschen Bank erfordert die Weitergabe von TANs in Video-Calls.

Für Unternehmen gilt zusätzlich: Zahlungsfreigaben ab bestimmten Schwellenwerten müssen über zwei voneinander unabhängige Kanäle bestätigt werden. Der Arup-Fall zeigt, was passiert, wenn ein einziger Video-Call reicht, um 15 Millionen Dollar zu bewegen.

Gegenargumente: Wird die Bedrohung übertrieben?

An dieser Stelle ist kritische Einordnung geboten. Einige Sicherheitsforscher warnen davor, die Deepfake-Bedrohung für Normalverbraucher zu dramatisieren. Ihr Argument: Echtzeit-Deepfakes, die tatsächlich überzeugend im Live-Dialog funktionieren, erfordern nach wie vor erheblichen technischen Aufwand – spezialisierte Hardware, Trainingsdaten in ausreichender Qualität und stabile Netzwerkverbindungen. Zufällig ausgewählte Massenangriffe auf beliebige Bankkonten seien deshalb noch nicht das dominierende Bedrohungsbild.

Realistisch ist dieses Gegenargument für 2024 gewesen. Für 2026 greift es zu kurz. Die Werkzeuge, die vor zwei Jahren noch Spezialkenntnisse erforderten, sind heute in Form kommerzieller Software-as-a-Service-Angebote im Darknet buchbar – inklusive Support und Geld-zurück-Garantie bei misslungenem Angriff. Der Einstieg für kriminelle Gruppen ohne technisches Vorwissen ist massiv gesunken.

Richtig ist hingegen: Nicht jeder Phishing-Versuch ist ein Deepfake-Angriff. Die klassische Phishing-Mail mit gefälschtem Sparkassen-Logo bleibt mengenmäßig dominanter. Deepfake-Angriffe sind gezielter und aufwändiger – was sie für Hochwertziele wie gut situierte Privatkunden, Firmeninhaber oder Finanzverantwortliche in Unternehmen besonders attraktiv macht. Wer in dieser Kategorie fällt, sollte die Bedrohung ernst nehmen. Wer ein Standardkonto mit überschaubarem Guthaben führt, ist statistisch weniger im Fokus – aber nicht geschützt, wenn Täter automatisiert skalieren.

Was technologisch als Gegenmittel entsteht

Die Verteidigungsseite schläft nicht vollständig. Mehrere Entwicklungslinien zeichnen sich ab, die mittelfristig den Schutz verbessern könnten – wenn sie konsequent eingesetzt werden.

Kryptografische Inhaltszertifikate: Die Coalition for Content Provenance and Authenticity (C2PA), der unter anderem Microsoft, Adobe und BBC angehören, entwickelt einen Standard, der digitale Inhalte mit einem manipulationssicheren Herkunftsnachweis versieht. Videos und Bilder könnten so automatisch belegen, ob sie authentisch aufgezeichnet oder KI-generiert sind. Für Banking-Video-Calls wäre das ein Game-Changer – sofern die Infrastruktur flächendeckend implementiert wird, was Jahre dauern dürfte.

Verhaltensbiometrie: Moderne Systeme analysieren nicht nur das Gesicht, sondern das gesamte Interaktionsverhalten – Tipprhythmus, Mausbewegungen, Sprachpausen, Formulierungsmuster. Ein KI-Avatar verhält sich in diesen Mikrodimensionen anders als ein Mensch. Banken, die verhaltensbiometrische Analyse in ihre Authentifizierungsprozesse eingebettet haben, können Deepfake-Angriffe auf Systemebene erkennen, bevor der Kundenschaden entsteht.

Challenge-Response-Verfahren in Echtzeit: Einige Sicherheitsanbieter arbeiten an Protokollen, bei denen der Gesprächspartner in Echtzeit aufgefordert wird, eine zufällig generierte physische Geste auszuführen – etwa ein bestimmtes Objekt in die Kamera zu halten oder eine spezifische Kopfbewegung durchzuführen. Heutige Deepfake-Systeme können solche unvorhergesehenen Anforderungen nicht in Echtzeit plausibel umsetzen. Dieses Verfahren ist einfach, kostenlos und sofort anwendbar – auch für Privatpersonen, die einen verdächtigen Anruf verifizieren wollen.

Gesetzliche Kennzeichnungspflicht für synthetische Medien: Der EU AI Act schreibt für bestimmte KI-generierte Inhalte Kennzeichnungspflichten vor. Ob und wie diese Regelung auf kriminell eingesetzte Deepfakes durchsetzbar ist, bleibt eine offene Frage – Straftäter halten sich per Definition nicht an Kennzeichnungspflichten. Dennoch schafft die Regulierung eine rechtliche Basis für Strafverfolgung und könnte legitime Deepfake-Technologieanbieter zur Implementierung von Missbrauchsschutz zwingen.

Was BaFin und BKA konkret fordern

Die Regulierungsseite reagiert – mit unterschiedlicher Geschwindigkeit. Das BKA hat seine Warnung im April 2026 mit konkreten Handlungsempfehlungen versehen und arbeitet nach eigenen Angaben an internationaler Koordination, da die Täterstrukturen grenzüberschreitend organisiert sind. Die Sprachbarriere – früher ein natürlicher Filter – fällt durch KI-Echtzeit-Übersetzung vollständig weg.

Die BaFin hat für Finanzinstitute bestehende Pflichten nach DORA (Digital Operational Resilience Act) im Blick: Institute müssen seit Januar 2025 Anforderungen an IKT-Risikomanagement erfüllen, Vorfälle melden und Widerstandsfähigkeit gegenüber Cyberangriffen nachweisen. Deepfake-basiertes Phishing fällt in den Scope dieser Regulierung, soweit es Betriebsstörungen oder Kundenschäden verursacht. Konkrete Bußgeldrahmen für einzelne Deepfake-Vorfälle existieren nicht separat – DORA-Verstöße werden nach nationalem Umsetzungsrecht sanktioniert.

Was fehlt: einheitliche technische Standards für Video-Ident-Verfahren, die Deepfake-Erkennung vorschreiben. Die ESMA hat in ihrer Studie zu Online-Finanzbetrug im KI-Zeitalter (Januar 2026) explizit auf diese Regelungslücke hingewiesen. Der Fondsprofessionell-Bericht zum Signicat-Bericht 2026 dokumentiert, wie dramatisch die Betrugszahlen im Finanzsektor angestiegen sind und wie wenig die Branche bisher technisch gegensteuert.

Die Dunkelziffer: Was wir nicht wissen

Hier liegt das eigentliche Problem. Die gemeldeten Fälle sind mit Sicherheit nur die Spitze. Betroffene Banken haben erhebliche Anreize, Vorfälle nicht öffentlich zu machen – Reputationsschaden, Kundenverunsicherung, Aufsichtsdruck. Privatpersonen melden Betrug häufig aus Scham nicht, besonders wenn sie selbst Zugangsdaten weitergegeben haben.

Der Clou an Deepfake-Phishing ist genau das: Es erzeugt keine klassische Opfer-Täter-Dynamik mit offensichtlichem Angriff, sondern eine Situation, in der das Opfer glaubt, freiwillig und vernünftig gehandelt zu haben. Das erhöht die Hemmschwelle zur Meldung drastisch. LexisNexis meldet für 2026 einen Anstieg von 450 Prozent bei „agentischem Betrug“ – also automatisierten Angriffen auf Kreditkarten und Login-Systeme, oft kombiniert mit Deepfake-gestütztem Social Engineering vorgelagert.

Ich gehe davon aus, dass die tatsächliche Schadenssumme allein für das erste Halbjahr 2026 ein Vielfaches der gemeldeten Zahlen beträgt. Das ist keine Panikmache – das ist die statistische Logik von Dunkelziffern in Betrugsfällen mit Reputationskomponente.

Kontobetrug melden und nächste Schritte

Wer Opfer eines Deepfake-Phishing-Angriffs geworden ist oder einen verdächtigen Video-Call erhalten hat, sollte folgende Schritte einleiten. Sofort: Bank kontaktieren und Konto sperren lassen (Sperr-Notruf 116 116). Dann Anzeige bei der Polizei – Cybercrime-Abteilungen der Landeskriminalämter sind zuständig. Parallel: Vorfall dem BSI melden, das die gemeldeten Fälle in seiner Lagebeurteilung auswertet.

Für Banken und Unternehmen gilt: Incident-Response-Pläne müssen Deepfake-Szenarien explizit abdecken. Trainingsmaßnahmen für Mitarbeiter sind kein Nice-to-have mehr – das BKA empfiehlt regelmäßige Simulationen, bei denen auch Video-Call-Szenarien geübt werden. Verhaltensbasierte Anomalie-Erkennung auf Kontobewegungsebene kann Schaden begrenzen, selbst wenn der Angriff zunächst erfolgreich war.

Was bleibt, ist eine unbequeme Frage: Wenn Echtzeit-Deepfakes Video-Calls als Vertrauenssignal zerstören und gleichzeitig nur ein Bruchteil der Banken Erkennungstechnologie einsetzt – welchen Identitätsnachweis akzeptieren wir dann noch als verlässlich? Haben Sie schon überprüft, welche Sicherheitsstufe Ihre Bank beim Video-Ident-Verfahren wirklich einsetzt?

0 0 Bewertungen
Artikel Bewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
Ähnliche Artikel