L'Agence nationale de la sécurité des systèmes d'information (ANSSI) a publié le 4 février 2026 une synthèse de 12 pages détaillant comment l'intelligence artificielle générative est utilisée comme arme par les cybercriminels et les pirates informatiques parrainés par des États, tout en devenant elle-même une cible d'attaques sophistiquées. Le rapport intitulé L'IA Générative Face aux Attaques Informatiques fournit une évaluation des menaces observées tout au long de l'année 2025 et appelle à une vigilance continue alors que le paysage évolue rapidement.
Selon le rapport de l'ANSSI, aucune cyberattaque utilisant l'intelligence artificielle n'a été signalée contre des entités françaises à ce jour, et aucun système d'IA n'a démontré la capacité d'exécuter de manière autonome toutes les étapes d'une cyberattaque. Cependant, l'agence avertit que l'IA générative améliore significativement le niveau, la quantité, la diversité et l'efficacité des attaques, particulièrement contre les environnements peu sécurisés. Des acteurs étatiques d'Iran, de Chine, de Corée du Nord et de Russie ont été identifiés comme utilisant des services d'IA commerciaux comme Google Gemini pour la reconnaissance, la génération de contenus d'hameçonnage et le développement de logiciels malveillants.
Le rapport identifie plusieurs développements alarmants dans les outils offensifs alimentés par l'IA. Google a détecté Promptflux, un logiciel malveillant polymorphe qui utilise l'API Gemini pour réécrire entièrement son code source toutes les heures afin d'éviter la détection. Des chercheurs de l'université de New York ont développé PromptLock, un rançongiciel preuve de concept qui génère dynamiquement des scripts d'attaque à l'exécution. Les marchés criminels proposent désormais des plateformes de jailbreak-as-a-service comme EscapeGPT et LoopGPT, tandis que des modèles d'IA débridés comme WormGPT 4 sont entraînés directement sur du code malveillant et des modèles d'hameçonnage pour environ cent dollars par mois.
L'ANSSI souligne également que les systèmes d'IA eux-mêmes deviennent des cibles de grande valeur. Des recherches du UK AI Security Institute et de l'Alan Turing Institute ont démontré que seulement 250 documents empoisonnés suffisent à corrompre n'importe quel modèle d'IA générative, quelle que soit la taille de la base de données. Les attaquants exploitent le slopsquatting en identifiant des noms de paquets logiciels fictifs hallucinés par les systèmes d'IA et en créant de vrais logiciels malveillants avec ces noms pour empoisonner les chaînes d'approvisionnement logicielles. Entre 2022 et 2023, plus de 100 000 comptes utilisateurs ChatGPT ont été compromis par des infostealers comme Rhadamanthys et vendus sur des forums criminels.
L'agence recommande aux organisations de consulter le guide ANSSI sur les Recommandations de sécurité pour un système d'IA générative lors de la mise en œuvre de solutions LLM. Le rapport souligne que si les acteurs avancés utilisent l'IA pour des gains de performance et la mise à l'échelle des opérations, les attaquants moins expérimentés l'exploitent comme outil d'apprentissage. Dans tous les cas, l'IA générative permet aux acteurs malveillants d'agir plus rapidement et à plus grande échelle, nécessitant une réévaluation régulière des menaces et des mesures de sécurité robustes.
--- POINTS CLÉS DU RAPPORT ANSSI (CERTFR-2026-CTI-001) ---
L'IA COMME OUTIL D'ATTAQUE : Des acteurs étatiques de 42 groupes (10 Iran, 20 Chine, 9 Corée du Nord, 3 Russie) ont utilisé Google Gemini. L'IA est utilisée pour l'ingénierie sociale, les faux profils, le contenu d'hameçonnage, le développement de malwares (Promptflux, PromptLock) et l'analyse des données exfiltrées. Les services d'IA criminels (WormGPT, FraudGPT, EvilGPT) coûtent environ 100$/mois. Aucune IA ne peut encore mener une cyberattaque autonome complète.
L'IA COMME CIBLE : Seulement 250 documents malveillants peuvent empoisonner n'importe quel modèle d'IA. Le slopsquatting exploite les hallucinations de l'IA pour créer des attaques de chaîne d'approvisionnement. Les serveurs MCP connectant les LLM à des outils externes élargissent les surfaces d'attaque. Plus de 100 000 comptes ChatGPT ont été volés via des infostealers. Des employés de Samsung ont accidentellement divulgué des secrets sur les semi-conducteurs via ChatGPT en 2023.
RECOMMANDATIONS : Mettre en œuvre un cloisonnement strict des données. Réévaluer régulièrement les menaces liées à l'IA. Suivre les directives de sécurité de l'ANSSI pour le déploiement de l'IA générative. Surveiller les comptes IA compromis et les données d'entraînement empoisonnées.
Commentaires