„Ich habe gelesen, dass Deepfakes inzwischen sogar genutzt werden, um Führungskräfte zu täuschen. Wie real ist diese Gefahr wirklich und was können wir als Unternehmen tun, um uns davor zu schützen?“
Die Gefahr ist leider sehr real. Angreifer nutzen Deepfake-Technologien, um Stimmen oder sogar Videos von Führungskräften täuschend echt nachzubilden. In der Praxis läuft das oft so ab: Mitarbeitende erhalten einen Anruf oder eine Videobotschaft, scheinbar vom Geschäftsführer, in der sie gebeten werden, eine Überweisung zu tätigen oder sensible Daten freizugeben. In Wahrheit steckt ein Angreifer dahinter, der die Stimme oder das Gesicht mit KI simuliert.
Das Risiko liegt darin, dass diese Angriffe besonders glaubwürdig wirken. Während eine Phishing-Mail noch an der Rechtschreibung scheitern kann, wirkt ein vertrauter Anruf oder ein Videocall mit „dem Chef“ sofort authentisch. Genau das nutzen Kriminelle aus, um die natürliche Autorität von Führungskräften zu missbrauchen.
4 Maßnahmen, die helfen:
- Verifizierungsprozesse einführen: Kritische Anweisungen, etwa zu Zahlungen oder Datenfreigaben, dürfen nie allein per Telefon oder Videocall ausgeführt werden. Eine zweite Bestätigung über einen unabhängigen Kanal ist Pflicht.
- Sensibilisierung des Managements: Führungskräfte selbst müssen geschult werden, damit sie das Risiko kennen und ihre Mitarbeitenden auf klare Prozesse verweisen, anstatt schnelle „Sonderwege“ zu verlangen.
- Technische Erkennungshilfen: Erste Tools zur Deepfake-Erkennung entstehen bereits, sie sind aber noch nicht zuverlässig. Entscheidend ist daher nicht nur die Technik, sondern vor allem die Organisation.
- Kultur schaffen: Mitarbeitende müssen wissen, dass es in Ordnung ist, auch bei Anfragen „von ganz oben“ nachzufragen. Das schützt vor blindem Befolgen und ist ein wirksames Gegengift gegen Deepfake-Angriffe.