Montag, 8:47 Uhr. Thomas Krüger, Leiter Finanzbuchhaltung bei der Bergmann Maschinenbau GmbH in Nürnberg, nimmt einen Anruf entgegen. Die Nummer im Display: sein Geschäftsführer Markus Bergmann, der gerade auf einer Messe in Hannover ist. Die Stimme klingt vertraut – das leichte Fränkisch, der typische Tonfall, die Angewohnheit, Sätze mit „Schau mal, Thomas" zu beginnen.
„Schau mal, Thomas, ich hab hier gerade eine Situation. Wir haben die Möglichkeit, kurzfristig eine CNC-Fräse unter Marktpreis zu bekommen – aber der Verkäufer braucht bis elf Uhr eine Anzahlung von 180.000 Euro. Ich hab die Kontodaten, kannst du das über unsere Expresszahlung laufen lassen?"
Thomas Krüger zögert kurz. 180.000 Euro auf ein unbekanntes Konto – normalerweise undenkbar. Aber der Chef ist es doch, er erkennt die Stimme eindeutig. Und auf einer Messe ergeben sich solche Gelegenheiten eben manchmal. Zwanzig Minuten später ist das Geld überwiesen. Als der echte Markus Bergmann um 14 Uhr seine Mails checkt und Thomas zurückruft, ist es längst zu spät.
Dieses Szenario ist fiktiv. Die Bergmann Maschinenbau GmbH gibt es nicht. Aber alles daran – die Technik, die Taktik, die Psychologie – entspricht exakt dem, was deutsche Unternehmen 2026 Tag für Tag erleben. Und die Geschichte von Thomas Krüger steht stellvertretend für tausende ähnliche Fälle, die sich hinter verschlossenen Türen abspielen, weil kaum ein Unternehmen öffentlich über solche Vorfälle spricht.
Die technische Anatomie eines Deepfake-Angriffs
Um zu verstehen, warum Thomas Krüger keine Chance hatte, müssen wir den Angriff zerlegen. Moderne Deepfake-Attacken folgen einem methodischen Ablauf, der erschreckend effizient ist.
Phase 1: Reconnaissance – Die Zielerfassung
Bevor ein einziger Deepfake erstellt wird, sammeln Angreifer wochenlang Informationen über das Zielunternehmen. LinkedIn-Profile verraten Organigramme und Verantwortlichkeiten. Firmenwebseiten liefern Telefonnummern und E-Mail-Adressen. Pressemitteilungen, Podcast-Auftritte und Messevideos liefern das Rohmaterial für Stimmklone. Im Fall der fiktiven Bergmann GmbH hätte ein 30-sekündiges Begrüßungsvideo des Geschäftsführers auf der Firmenwebseite genügt – aktuelle Stimmklon-Technologie braucht nur drei Sekunden Audiomaterial für einen Klon mit 85 Prozent Übereinstimmung.
Phase 2: Weaponization – Die Bewaffnung
Der Stimmklon wird trainiert und optimiert. Parallel dazu recherchieren die Angreifer den idealen Zeitpunkt und Kontext. Markus Bergmann auf der Hannover Messe – diese Information war vermutlich über einen Social-Media-Post oder die Messeliste öffentlich zugänglich. Perfekter Vorwand für eine dringende Zahlungsanweisung, die der Geschäftsführer nicht persönlich überwachen kann.
Phase 3: Delivery – Die Zustellung
Der Anruf erfolgt über eine gespoofte Nummer, die im Display als die Mobilnummer des Geschäftsführers erscheint. Caller-ID-Spoofing ist seit Jahren trivial und kostet wenige Cent pro Anruf. Die KI übernimmt die Stimmmodulation in Echtzeit – der Angreifer spricht in sein Mikrofon, die Software wandelt seine Stimme in die des CEO um, mit natürlichen Pausen, Sprechrhythmus und regionaler Färbung.
Phase 4: Exploitation – Die Ausnutzung
Der psychologische Druck ist maximal: Zeitdruck (bis elf Uhr), Autoritätsgefälle (der Chef persönlich), ein plausibles Szenario (Messeschnäppchen), soziale Dynamik (dem Chef einen Gefallen tun). All diese Hebel greifen ineinander und überlagern die rationalen Warnsignale, die Thomas Krüger unter normalen Umständen erkannt hätte.
Warum der Mittelstand besonders gefährdet ist
Die Bergmann Maschinenbau GmbH steht exemplarisch für eine Unternehmensstruktur, die in Deutschland millionenfach existiert: 80 bis 250 Mitarbeiter, flache Hierarchien, kurze Kommunikationswege, hohes Vertrauen zwischen Führungskräften und Schlüsselmitarbeitern. Genau diese Stärken werden zur Schwachstelle.
In Konzernen laufen Zahlungen über mehrstufige Freigabeprozesse mit automatisierten Compliance-Checks. Im Mittelstand reicht häufig ein Anruf beim Buchhalter. In Konzernen gibt es dedizierte Security Operations Center mit Echtzeit-Monitoring. Im Mittelstand übernimmt das der IT-Leiter nebenbei, wenn er nicht gerade den Drucker repariert.
Die Statistiken bestätigen diese Asymmetrie: In Deutschland werden pro Woche durchschnittlich 1.345 Cyberangriffe auf Unternehmen registriert – ein Anstieg von 14 Prozent gegenüber dem Vorjahr. Deepfake-Verifikationsversuche sind allein in Deutschland um 53 Prozent gestiegen. Und 17 Prozent aller Identitätsdiebstähle gehen inzwischen auf Vishing zurück.
Zurück zur Bergmann GmbH: Wie es anders hätte laufen können
Spulen wir das Szenario zurück und geben Thomas Krüger die Werkzeuge an die Hand, die er gebraucht hätte.
Variante mit Code-Wort-System: Markus Bergmann und Thomas Krüger haben vor Wochen ein persönliches Codewort vereinbart – „Enzianblüte". Bei jeder telefonischen Zahlungsanweisung über 10.000 Euro muss dieses Wort genannt werden. Der Deepfake-Anrufer kennt es nicht. Thomas fragt nach, der Anrufer improvisiert – und Thomas legt auf.
Variante mit Vier-Augen-Prinzip: Die interne Richtlinie schreibt vor, dass Zahlungen über 50.000 Euro grundsätzlich eine zweite Freigabe durch die Prokuristin erfordern. Thomas informiert seine Kollegin Sandra Hoffmann, die den echten Markus Bergmann über dessen fest hinterlegte Handynummer kontaktiert. Entwarnung – oder vielmehr: Alarm.
Variante mit Rückruf-Protokoll: Thomas ruft grundsätzlich auf der im System hinterlegten Nummer zurück, nie auf der eingehenden. Der echte Markus Bergmann meldet sich verwundert. Angriff erkannt, Schaden verhindert.
Jede dieser Varianten hätte funktioniert. Jede kostet kein Geld, nur Disziplin. Und trotzdem fehlen sie in erschreckend vielen mittelständischen Unternehmen.
Die technische Verteidigungslinie: Was heute möglich ist
Organisatorische Maßnahmen sind das Fundament – aber sie brauchen technische Verstärkung. Die gute Nachricht: 2026 steht ein wachsendes Arsenal an Werkzeugen zur Verfügung.
E-Mail-Authentifizierung als Basis
DMARC, SPF und DKIM sind keine optionalen Extras mehr. Diese drei Protokolle zusammen stellen sicher, dass E-Mails tatsächlich vom behaupteten Absender stammen und unterwegs nicht manipuliert wurden. Wer diese Standards nicht implementiert hat, lässt die Haustür offen stehen – für klassisches E-Mail-Spoofing genauso wie für KI-gestützte Angriffe, die gefälschte E-Mails als Vorbereitung oder Nachbereitung von Deepfake-Anrufen nutzen.
Phishing-resistente Authentifizierung mit FIDO2
Passwörter und klassische Zwei-Faktor-Authentifizierung per SMS sind gegen KI-gestützte Angriffe nicht mehr ausreichend. FIDO2/WebAuthn-basierte Authentifizierung nutzt kryptografische Schlüssel, die an das physische Gerät gebunden sind und nicht durch Phishing abgefangen werden können. Für Unternehmen, die ihre kritischen Systeme absichern wollen, ist der Umstieg auf FIDO2 eine der wirkungsvollsten Einzelmaßnahmen.
KI-gestützte Deepfake-Erkennung
Mehrere Anbieter haben 2026 Lösungen auf den Markt gebracht, die Audio- und Videomaterial in Echtzeit auf Manipulationsspuren analysieren. Diese Systeme prüfen biometrische Merkmale, erkennen Artefakte in der Sprachsynthese und vergleichen Stimmproben mit hinterlegten Referenzen. Noch ist die Technologie nicht perfekt – aber sie verschiebt die Kosten-Nutzen-Rechnung für Angreifer erheblich.
Konkret funktioniert das so: Ein Plug-in für gängige Videokonferenz-Plattformen analysiert den Audiostream der Teilnehmer in Echtzeit. Erkennt der Algorithmus Anomalien – etwa unnatürliche Übergänge zwischen Phonemen, fehlende Mikroschwankungen in der Stimme oder inkonsistente Raumakustik –, wird eine Warnung eingeblendet. Kein Wundermittel, aber eine zusätzliche Sicherheitsschicht.
Zero Trust als architektonischer Rahmen
Deepfake-Angriffe missbrauchen Vertrauen. Zero Trust eliminiert Vertrauen als Sicherheitsfaktor. Das Paradigma „Never trust, always verify" bedeutet im Kontext von Deepfakes: Kein Kommunikationskanal wird grundsätzlich als sicher betrachtet. Jede Identität wird bei jedem Zugriff verifiziert. Jede Transaktion wird kontextbezogen bewertet.
Für die Bergmann GmbH würde ein Zero-Trust-Ansatz bedeuten: Selbst wenn der Anruf tatsächlich vom Chef kommt und die Stimme echt ist, durchläuft die Zahlungsanweisung trotzdem den regulären Freigabeprozess. Kein Shortcut, keine Ausnahme. Die Identität des Anrufers ist eine Variable, kein Fakt.
Security-Awareness 2.0: Schulungen für die KI-Ära
Die klassische Security-Awareness-Schulung – einmal im Jahr eine PowerPoint mit Beispielen für Phishing-Mails – ist gegen KI-gestützte Angriffe wirkungslos. Was es stattdessen braucht:
Simulierte Deepfake-Angriffe
Genauso wie Unternehmen heute simulierte Phishing-Mails versenden, um die Wachsamkeit der Mitarbeiter zu testen, sollten sie simulierte Deepfake-Anrufe durchführen. Ein externer Dienstleister erzeugt einen Stimmklon der Geschäftsführung und ruft Mitarbeiter in sensiblen Positionen an. Wer darauf hereinfällt, erhält keine Strafe, sondern gezieltes Training. Der Lerneffekt ist enorm – und die Investition minimal verglichen mit dem Schadenspotenzial.
Kontextbezogene Mikro-Trainings
Statt jährlicher Großschulungen: kurze, regelmäßige Trainingseinheiten von fünf bis zehn Minuten, die aktuelle Angriffsszenarien aufgreifen. Ein neuer Deepfake-Fall in den Nachrichten? Am nächsten Tag geht ein internes Kurzvideo raus mit der Frage: „Hätten Sie es erkannt?" Diese Form des kontinuierlichen Lernens verankert Sicherheitsbewusstsein im Alltag.
Psychologische Resilienz aufbauen
Deepfake-Angriffe funktionieren über Druck, Autorität und Dringlichkeit. Mitarbeiter müssen lernen, genau in solchen Momenten innezuhalten. Das bedeutet eine Kulturveränderung: Es muss ausdrücklich erlaubt und sogar erwünscht sein, dem Geschäftsführer zu widersprechen, wenn eine Zahlungsanweisung ungewöhnlich wirkt. Wer eine fragwürdige Anweisung hinterfragt, handelt nicht illoyal – er schützt das Unternehmen.
Der regulatorische Kontext: NIS2 und EU AI Act
Deepfake-Abwehr ist 2026 nicht nur operativ klug, sondern zunehmend regulatorisch geboten.
NIS2 verpflichtet betroffene Unternehmen zu umfassenden Risikomanagementmaßnahmen und Incident Reporting. Rund 29.500 Unternehmen in Deutschland fallen unter die Richtlinie – und die Geschäftsleitung haftet persönlich für die Umsetzung. Wer Deepfake-Szenarien nicht in seine Risikoanalyse einbezieht, handelt fahrlässig im Sinne des Gesetzes. Die Bußgelder reichen bis zu 10 Millionen Euro oder 2 Prozent des weltweiten Jahresumsatzes.
Der EU AI Act schafft ab August 2026 zusätzliche Pflichten: KI-generierte Inhalte müssen klar gekennzeichnet werden. Für Unternehmen bedeutet das, dass sie auch intern Klarheit über den Einsatz von KI-Tools schaffen müssen. Deepfake-Erkennung und -Prävention werden damit zum integralen Bestandteil einer compliance-konformen KI-Strategie.
Praxisleitfaden: In 90 Tagen zur Deepfake-Resilienz
Für Unternehmen wie die fiktive Bergmann GmbH – 80 bis 250 Mitarbeiter, begrenztes IT-Budget, aber hohe Abhängigkeit von funktionierender IT – empfehle ich einen strukturierten 90-Tage-Plan:
Wochen 1–2: Bestandsaufnahme und Quick Wins
Identifizieren Sie alle Positionen mit Zahlungsfreigabe-Berechtigung. Führen Sie das Code-Wort-System ein – ab sofort, ohne technische Infrastruktur. Implementieren Sie das Rückruf-Protokoll: Keine Zahlungsanweisung per Telefon wird ausgeführt, ohne dass der Empfänger auf einer fest hinterlegten Nummer zurückruft. Prüfen Sie den Status Ihrer E-Mail-Authentifizierung (DMARC, SPF, DKIM).
Wochen 3–6: Technische Härtung
Implementieren Sie DMARC im Enforce-Modus, falls noch nicht geschehen. Evaluieren Sie FIDO2-Tokens für Mitarbeiter in kritischen Positionen. Aktualisieren Sie Ihre Firewall- und Endpoint-Security-Regeln mit Fokus auf Caller-ID-Spoofing-Erkennung. Integrieren Sie Deepfake-Szenarien in Ihren bestehenden Incident-Response-Plan – oder erstellen Sie einen, falls keiner existiert.
Wochen 7–10: Awareness und Training
Führen Sie die erste Welle simulierter Deepfake-Anrufe durch. Schulen Sie Führungskräfte gezielt zu ihrer Rolle als mögliche „Deepfake-Vorlage" – was sie auf Social Media und in öffentlichen Auftritten preisgeben, liefert Angreifern Munition. Etablieren Sie das Format der monatlichen Mikro-Trainings.
Wochen 11–12: Dokumentation und kontinuierliche Verbesserung
Dokumentieren Sie alle implementierten Maßnahmen – auch mit Blick auf NIS2-Compliance. Definieren Sie KPIs: Wie viele Mitarbeiter fallen auf simulierte Angriffe herein? Wie schnell werden verdächtige Anrufe gemeldet? Planen Sie die nächste Simulationsrunde. Evaluieren Sie KI-gestützte Deepfake-Erkennungstools für die nächste Investitionsrunde.
Was die Zukunft bringt: Ausblick auf 2027
Die Deepfake-Bedrohung wird sich weiter verschärfen. Die Technologie entwickelt sich schneller als die Abwehrmaßnahmen. In den nächsten 12 bis 18 Monaten werden wir Echtzeit-Video-Deepfakes in Unternehmensqualität sehen, die selbst für geschulte Augen nicht mehr erkennbar sind. KI-Agenten, die autonom mehrstufige Social-Engineering-Kampagnen orchestrieren. Und eine zunehmende Verschmelzung von Deepfake-Angriffen mit klassischen Cyber-Angriffsvektoren wie Ransomware und Supply-Chain-Kompromittierung.
Die gute Nachricht: Auch die Verteidigungsseite rüstet auf. Biometrische Verifizierung wird präziser, KI-gestützte Erkennung wird zuverlässiger, und regulatorische Rahmenwerke wie NIS2 und der EU AI Act schaffen verbindliche Mindeststandards. Aber Technologie allein wird das Problem nicht lösen. Es braucht eine Sicherheitskultur, in der jeder Mitarbeiter versteht, dass die Stimme am Telefon nicht mehr beweist, wer anruft.
Thomas Krüger bei der fiktiven Bergmann GmbH hätte diesen Artikel lesen sollen – vor dem Anruf am Montagmorgen. Für Sie ist es noch nicht zu spät.
Ihr nächster Schritt
Die Absicherung gegen Deepfake-Angriffe erfordert ein Zusammenspiel aus Informationssicherheit, KI-Kompetenz und strukturiertem Projektmanagement. Wir bei pleXtec unterstützen mittelständische Unternehmen dabei, diese Disziplinen zu verbinden – von der Risikoanalyse über die technische Implementierung bis zum Awareness-Programm. Vereinbaren Sie ein unverbindliches Erstgespräch und erfahren Sie, wo Ihr Unternehmen steht.