Bedrohungsszenario
Deepfakes & KI-gestützte Angriffe
Angriffsformen im Überblick
Voice-Cloning für CEO-Fraud
Mit wenigen Minuten Audiomaterial aus öffentlichen Quellen (YouTube-Interviews, Podcast-Auftritte, Firmenvideos) können Angreifer eine täuschend echte Stimme klonen. Mitarbeiter werden dann per Anruf in der geklonten Stimme des Chefs zu Überweisungen oder Datenherausgaben aufgefordert. Bekannte Fälle haben Schäden in Millionenhöhe verursacht.
Videodeepfakes in Videokonferenzen
Echtzeit-Deepfakes ermöglichen es Angreifern, in Videokonferenzen als eine andere Person aufzutreten. Zunehmend relevant für gefälschte Bewerbungsgespräche, Lieferantenverhandlungen oder interne Meetings.
KI-generiertes Spear-Phishing
KI-Modelle erstellen hochpersonalisierte Phishing-E-Mails auf Basis öffentlicher Informationen (LinkedIn, Website, Social Media) – fehlerfrei, im Schreibstil des angeblichen Absenders und mit korrekten Kontextinformationen. Frühere Erkennungsmerkmale wie Sprachfehler entfallen.
Automatisierte Angriffskampagnen
KI ermöglicht massenhafte, individualisierte Angriffe: Tausende personalisierte Phishing-Mails pro Stunde, automatisches Testen von Zugangsdaten oder das Generieren überzeugender Fake-Profile für Social-Engineering-Kampagnen.
Erkennungsmerkmale
Ungewöhnliche Kontaktaufnahme
Führungskräfte, die plötzlich per Anruf statt dem üblichen Kanal Anweisungen erteilen – besonders zu Geldtransfers oder Datenweitergabe.
Druck und Dringlichkeit
Fake-Anweisungen erzeugen oft künstlichen Zeitdruck und bitten darum, den normalen Prozess zu umgehen.
Artefakte in Videoaufnahmen
Unnatürliche Bewegungen, Lippensynchronisation, Beleuchtung oder Hintergrundübergänge können auf Deepfakes hinweisen – aber werden zunehmend seltener.
Perfekte E-Mail-Texte
Völlig fehlerfreie, hochpersonalisierte E-Mails mit korrektem Kontext können paradoxerweise ein Warnsignal sein.
Schutzmaßnahmen
Organisatorisch
- Prozessbasierte Sicherheit statt Vertrauensbasierte: Überweisungen und sensible Aktionen immer nach festem Prozess – unabhängig davon, wer anruft
- Codewörter für sensible Anfragen einführen: Ein vorab vereinbartes Wort, das Echtheit bestätigt und nur intern bekannt ist
- Vier-Augen-Prinzip für Finanztransaktionen – kein Einzelentscheid bei ungewöhnlichen Anfragen
- Mitarbeiter schulen: Deepfakes existieren und sind täuschend echt – der Anruf vom Chef kann gefälscht sein
- Rückrufpflicht über bekannte Nummer (nicht über die im Anruf genannte)
Technisch
- Deepfake-Erkennungstools für Videokonferenzen prüfen (z.B. Reality Defender)
- Digitale Signaturen für interne Kommunikation bei sensiblen Prozessen
- KI-basierte E-Mail-Sicherheitslösungen, die ungewöhnliche Kommunikationsmuster erkennen
Checkliste: KI-Angriff-Resilienz
MIT Media Lab Deepfake Detection: media.mit.edu
ENISA Threat Landscape on AI: enisa.europa.eu