Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat einen Leitfaden zu sogenannten Evasion Attacks auf Große Sprachmodelle (LLMs) wie ChatGPT veröffentlicht. Diese Angriffe stellen ein wachsendes Risiko für Unternehmen dar, da sie versuchen, die Sicherheitsmechanismen der KI zu umgehen und unerwünschtes Verhalten zu erzwingen.

Was das Bundesamt zur Sicherheit von LLM sagt
“Selbst wenn alle anwendbaren Gegenmaßnahmen implementiert werden, können Restrisiken verbleiben. Diese sind teilweise auf inhärente Modelleigenschaften zurückzuführen und können ohne Einschränkung der Modellfunktionalität nicht vollständig eliminiert werden.”
Was sind Evasion Attacks?
Evasion Attacks sind gezielte Manipulationen der Eingaben, die das LLM dazu bringen, interne Sicherheitsregeln zu ignorieren. Die bekannteste Form ist die Prompt Injection, bei der Anweisungen des Entwicklers oder des Nutzers durch bösartige Befehle überschrieben werden – oft durch in Dokumenten oder auf Websites versteckte Inhalte (indirekte Prompt Injection).
Die Gefahr für Unternehmen: Die Angriffe zielen auf den Diebstahl sensibler Daten (Exfiltration) , die Generierung schädlicher Inhalte oder die Störung der Systemfunktionalität ab.
Das “Tödliche Dreigestirn” der KI-Gefahr
Das Risiko ist für Unternehmen besonders hoch, wenn ein LLM-System drei kritische Merkmale kombiniert:
- Zugriff auf private/sensible Daten.
- Verarbeitung von nicht vertrauenswürdigen Inhalten (z.B. aus dem öffentlichen Internet).
- Fähigkeit zur externen Kommunikation oder zur Änderung des Systemzustands durch Schreibaktionen (z.B. E-Mail versenden, Code generieren).
Handlungsempfehlung des BSI: Unternehmen sollten prüfen, ob ihre LLM-Anwendungen alle drei Punkte gleichzeitig erfüllen. Falls ja, muss die Systemarchitektur so angepasst werden, dass diese Funktionen möglichst in getrennten Sessions oder mit isolierten Komponenten ausgeführt werden, um die Angriffsfläche zu reduzieren.
INSERT_STEADY_NEWSLETTER_SIGNUP_HERE
Fazit des BSI: Risiken bleiben, Schutz muss kontinuierlich sein
Das BSI stellt klar, dass die Risiken von Evasion Attacks nicht vollständig beseitigt werden können. Selbst bei der Implementierung aller anwendbaren Gegenmaßnahmen bleiben Restrisiken bestehen. Dies ist teilweise auf die inhärenten Merkmale des Modells zurückzuführen, die ohne Einschränkung der Funktionalität nicht vollständig beseitigt werden können. Das Risiko wird also bleiben.
Das erfordert daher einen kontinuierlichen Prozess im Umgang mit LLMs: Da sich Angriffe dynamisch weiterentwickeln , ist die ständige Analyse und Anpassung der Schutzmaßnahmen für die IT-Sicherheit in Unternehmen unerlässlich.
Sie möchten eine kurze Einschätzung zur SEO-Performance Ihrer Website?
Schreiben Sie mich einfach an und nennen Sie mir die aktuellen Herausforderungen.
Quelle: Evasion Attacks on LLMs – Countermeasures in Practice
Kontakt
Udo Raaf (Dipl. Kommunikationswirt) betreibt seit 1999 erfolgreich eigene Websites und gibt sein Wissen heute als strategischer Content- und SEO-Berater an Unternehmen, Agenturen und NPOs weiter.













