Die französische nationale Cybersicherheitsbehörde ANSSI veröffentlichte am 4. Februar 2026 eine umfassende 12-seitige Bedrohungssynthese, die detailliert beschreibt, wie generative künstliche Intelligenz von Cyberkriminellen und staatlich gesponserten Hackern als Waffe eingesetzt wird, während sie gleichzeitig zum Ziel ausgeklügelter Angriffe wird. Der Bericht mit dem Titel Generative KI und Cyberangriffe bietet eine Bewertung der im Jahr 2025 beobachteten Bedrohungen und fordert kontinuierliche Wachsamkeit, da sich die Landschaft schnell entwickelt.
Laut dem ANSSI-Bericht wurden bisher keine Cyberangriffe mit künstlicher Intelligenz gegen französische Einrichtungen gemeldet, und kein KI-System hat die Fähigkeit demonstriert, alle Phasen eines Cyberangriffs autonom durchzuführen. Die Behörde warnt jedoch, dass generative KI das Niveau, die Quantität, die Vielfalt und die Wirksamkeit von Angriffen erheblich verbessert, insbesondere gegen schlecht gesicherte Umgebungen. Staatlich gesponserte Bedrohungsakteure aus Iran, China, Nordkorea und Russland wurden identifiziert, die kommerzielle KI-Dienste wie Google Gemini für Aufklärung, Phishing-Inhaltserstellung und Malware-Entwicklung nutzen.
Der Bericht identifiziert mehrere alarmierende Entwicklungen bei KI-gestützten Angriffswerkzeugen. Google entdeckte Promptflux, eine polymorphe Malware, die die Gemini-API nutzt, um ihren Quellcode stündlich komplett umzuschreiben und so der Erkennung zu entgehen. Forscher der New York University entwickelten PromptLock, eine Proof-of-Concept-Ransomware, die zur Laufzeit dynamisch Angriffsskripte generiert. Kriminelle Marktplätze bieten jetzt Jailbreak-as-a-Service-Plattformen wie EscapeGPT und LoopGPT an, während uneingeschränkte KI-Modelle wie WormGPT 4 direkt mit bösartigem Code und Phishing-Vorlagen für etwa hundert Dollar pro Monat trainiert werden.
ANSSI hebt auch hervor, dass KI-Systeme selbst zu hochwertigen Zielen werden. Forschungen des UK AI Security Institute und des Alan Turing Institute zeigten, dass nur 250 vergiftete Dokumente ausreichen, um jedes generative KI-Modell unabhängig von der Datenbankgröße zu korrumpieren. Angreifer nutzen Slopsquatting, indem sie fiktive Software-Paketnamen identifizieren, die von KI-Systemen halluziniert werden, und echte Malware mit diesen Namen erstellen, um Software-Lieferketten zu vergiften. Zwischen 2022 und 2023 wurden mehr als 100.000 ChatGPT-Benutzerkonten durch Infostealer wie Rhadamanthys kompromittiert und in kriminellen Foren verkauft.
Die Behörde empfiehlt Organisationen, den ANSSI-Leitfaden zu Sicherheitsempfehlungen für generative KI-Systeme bei der Implementierung von LLM-Lösungen zu konsultieren. Der Bericht betont, dass fortgeschrittene Akteure KI für Leistungssteigerungen und Skalierung von Operationen nutzen, während weniger erfahrene Angreifer sie als Lernwerkzeug einsetzen. In allen Fällen ermöglicht generative KI böswilligen Akteuren, schneller und in größerem Maßstab zu operieren, was regelmäßige Bedrohungsneubewertungen und robuste Sicherheitsmaßnahmen erfordert.
--- KERNPUNKTE DES ANSSI-BERICHTS (CERTFR-2026-CTI-001) ---
KI ALS ANGRIFFSWERKZEUG: Staatliche Akteure aus 42 Gruppen (10 Iran, 20 China, 9 Nordkorea, 3 Russland) haben Google Gemini genutzt. KI wird für Social Engineering, gefälschte Profile, Phishing-Inhalte, Malware-Entwicklung (Promptflux, PromptLock) und Analyse exfiltrierter Daten verwendet. Kriminelle KI-Dienste (WormGPT, FraudGPT, EvilGPT) kosten etwa 100$/Monat. Keine KI kann bisher einen vollständigen autonomen Cyberangriff durchführen.
KI ALS ZIEL: Nur 250 bösartige Dokumente können jedes KI-Modell vergiften. Slopsquatting nutzt KI-Halluzinationen für Lieferkettenangriffe. MCP-Server, die LLMs mit externen Tools verbinden, erweitern Angriffsflächen. Über 100.000 ChatGPT-Konten wurden durch Infostealer gestohlen. Samsung-Mitarbeiter haben 2023 versehentlich Halbleiter-Geheimnisse über ChatGPT preisgegeben.
EMPFEHLUNGEN: Strikte Datenkompartimentierung implementieren. KI-bezogene Bedrohungen regelmäßig neu bewerten. ANSSI-Sicherheitsrichtlinien für generative KI-Bereitstellung befolgen. Kompromittierte KI-Konten und vergiftete Trainingsdaten überwachen.
Kommentare