Best Practice

KI-Systeme sicher machen – Handlungsempfehlungen für IT-Sicherheitsbeauftragte

Künstliche Intelligenz – KI – ist dabei, die Arbeitswelt auf den Kopf zu stellen. Mit Large Language Models – LLMs – wie ChatGPT, Claude oder branchenspezifischen Lösungen ziehen mächtige Werkzeuge in die Unternehmens-IT ein. Sie liefern Antworten, analysieren Daten und unterstützen Prozesse – aber sie eröffnen zugleich eine völlig neue Angriffsfläche.

Andreas Hessel

13.11.2025 · 3 Min Lesezeit

Der Expertenkreis KI der Allianz für Cybersicherheit hat daher einen Leitfaden veröffentlicht, der IT-Sicherheitsbeauftragten konkrete Empfehlungen gibt, wie Penetrationstests für KI-Systeme durchgeführt werden können. Denn es muss klar sein, dass klassische Testverfahren bei KI nicht mehr greifen. Die Modelle sind nicht deterministisch, ihre Antworten variieren, und sie lassen sich durch raffinierte Angriffe manipulieren. Prompt Injection, Halluzinationen oder Datenabfluss sind reale Bedrohungen, keine Theorie.

Mein Tipp:

Für Sie als IT-Sicherheitsbeauftragte bedeutet das, dass es nicht reicht, KI-Systeme einfach wie eine Standardsoftware zu behandeln. Wir brauchen neue Testmethoden, neue Szenarien und ein geschärftes Bewusstsein für Risiken.