L'Agenzia Nazionale per la Sicurezza Informatica francese ANSSI ha pubblicato il 4 febbraio 2026 una sintesi completa di 12 pagine che descrive come l'intelligenza artificiale generativa viene utilizzata come arma da cybercriminali e hacker sponsorizzati da stati, diventando contemporaneamente bersaglio di attacchi sofisticati. Il rapporto intitolato L'IA Generativa di Fronte agli Attacchi Informatici fornisce una valutazione delle minacce osservate nel 2025 e invita a una vigilanza continua mentre il panorama evolve rapidamente.
Secondo il rapporto ANSSI, nessun cyberattacco utilizzando l'intelligenza artificiale è stato segnalato contro entità francesi fino ad oggi, e nessun sistema di IA ha dimostrato la capacità di eseguire autonomamente tutte le fasi di un cyberattacco. Tuttavia, l'agenzia avverte che l'IA generativa migliora significativamente il livello, la quantità, la diversità e l'efficacia degli attacchi, particolarmente contro ambienti poco protetti. Attori statali provenienti da Iran, Cina, Corea del Nord e Russia sono stati identificati mentre utilizzavano servizi di IA commerciali come Google Gemini per ricognizione, generazione di contenuti di phishing e sviluppo di malware.
Il rapporto identifica diversi sviluppi allarmanti negli strumenti offensivi alimentati dall'IA. Google ha rilevato Promptflux, un malware polimorfico che utilizza l'API Gemini per riscrivere completamente il suo codice sorgente ogni ora per eludere il rilevamento. Ricercatori della New York University hanno sviluppato PromptLock, un ransomware proof-of-concept che genera dinamicamente script di attacco durante l'esecuzione. I mercati criminali ora offrono piattaforme jailbreak-as-a-service come EscapeGPT e LoopGPT, mentre modelli di IA senza restrizioni come WormGPT 4 vengono addestrati direttamente su codice malevolo e template di phishing per circa cento dollari al mese.
ANSSI sottolinea anche che i sistemi di IA stessi stanno diventando obiettivi di alto valore. Ricerche del UK AI Security Institute e dell'Alan Turing Institute hanno dimostrato che solo 250 documenti avvelenati sono sufficienti per corrompere qualsiasi modello di IA generativa indipendentemente dalla dimensione del database. Gli attaccanti sfruttano lo slopsquatting identificando nomi fittizi di pacchetti software allucinati dai sistemi di IA e creando vero malware con quei nomi per avvelenare le catene di approvvigionamento software. Tra il 2022 e il 2023, più di 100.000 account utenti ChatGPT sono stati compromessi tramite infostealer come Rhadamanthys e venduti su forum criminali.
L'agenzia raccomanda alle organizzazioni di consultare la guida ANSSI sulle Raccomandazioni di Sicurezza per Sistemi di IA Generativa quando implementano soluzioni LLM. Il rapporto sottolinea che mentre gli attori avanzati usano l'IA per guadagni di prestazioni e scalabilità delle operazioni, gli attaccanti meno esperti la sfruttano come strumento di apprendimento. In tutti i casi, l'IA generativa permette agli attori malevoli di operare più velocemente e su scala maggiore, rendendo necessarie rivalutazioni regolari delle minacce e misure di sicurezza robuste.
--- PUNTI CHIAVE DEL RAPPORTO ANSSI (CERTFR-2026-CTI-001) ---
IA COME STRUMENTO DI ATTACCO: Attori statali di 42 gruppi (10 Iran, 20 Cina, 9 Corea del Nord, 3 Russia) hanno usato Google Gemini. L'IA viene usata per ingegneria sociale, profili falsi, contenuti di phishing, sviluppo di malware (Promptflux, PromptLock) e analisi di dati esfiltrati. I servizi di IA criminali (WormGPT, FraudGPT, EvilGPT) costano circa $100/mese. Nessuna IA può ancora condurre un cyberattacco autonomo completo.
IA COME OBIETTIVO: Solo 250 documenti malevoli possono avvelenare qualsiasi modello di IA. Lo slopsquatting sfrutta le allucinazioni dell'IA per creare attacchi alla catena di approvvigionamento. I server MCP che collegano LLM a strumenti esterni espandono le superfici di attacco. Oltre 100.000 account ChatGPT sono stati rubati tramite infostealer. Dipendenti Samsung hanno accidentalmente divulgato segreti sui semiconduttori tramite ChatGPT nel 2023.
RACCOMANDAZIONI: Implementare una rigorosa compartimentazione dei dati. Rivalutare regolarmente le minacce legate all'IA. Seguire le linee guida di sicurezza ANSSI per il deployment dell'IA generativa. Monitorare account IA compromessi e dati di addestramento avvelenati.
Commenti