La Agencia Nacional de Ciberseguridad de Francia ANSSI publicó el 4 de febrero de 2026 una síntesis completa de 12 páginas que detalla cómo la inteligencia artificial generativa está siendo utilizada como arma por ciberdelincuentes y hackers patrocinados por estados, mientras que simultáneamente se convierte en objetivo de ataques sofisticados. El informe titulado La IA Generativa Frente a los Ciberataques proporciona una evaluación de las amenazas observadas a lo largo de 2025 y llama a una vigilancia continua mientras el panorama evoluciona rápidamente.
Según el informe de ANSSI, no se han reportado ciberataques utilizando inteligencia artificial contra entidades francesas hasta la fecha, y ningún sistema de IA ha demostrado la capacidad de ejecutar autónomamente todas las etapas de un ciberataque. Sin embargo, la agencia advierte que la IA generativa mejora significativamente el nivel, cantidad, diversidad y efectividad de los ataques, particularmente contra entornos poco seguros. Se ha identificado que actores estatales de Irán, China, Corea del Norte y Rusia utilizan servicios comerciales de IA como Google Gemini para reconocimiento, generación de contenido de phishing y desarrollo de malware.
El informe identifica varios desarrollos alarmantes en herramientas ofensivas impulsadas por IA. Google detectó Promptflux, un malware polimórfico que utiliza la API de Gemini para reescribir completamente su código fuente cada hora para evadir la detección. Investigadores de la Universidad de Nueva York desarrollaron PromptLock, un ransomware de prueba de concepto que genera dinámicamente scripts de ataque en tiempo de ejecución. Los mercados criminales ahora ofrecen plataformas de jailbreak-as-a-service como EscapeGPT y LoopGPT, mientras que modelos de IA sin restricciones como WormGPT 4 se entrenan directamente con código malicioso y plantillas de phishing por aproximadamente cien dólares al mes.
ANSSI también destaca que los propios sistemas de IA se están convirtiendo en objetivos de alto valor. Investigaciones del UK AI Security Institute y el Alan Turing Institute demostraron que solo 250 documentos envenenados son suficientes para corromper cualquier modelo de IA generativa independientemente del tamaño de la base de datos. Los atacantes explotan el slopsquatting identificando nombres ficticios de paquetes de software alucinados por sistemas de IA y creando malware real con esos nombres para envenenar las cadenas de suministro de software. Entre 2022 y 2023, más de 100.000 cuentas de usuarios de ChatGPT fueron comprometidas mediante infostealers como Rhadamanthys y vendidas en foros criminales.
La agencia recomienda a las organizaciones consultar la guía de ANSSI sobre Recomendaciones de Seguridad para Sistemas de IA Generativa al implementar soluciones LLM. El informe enfatiza que mientras los actores avanzados usan la IA para ganancias de rendimiento y escalado de operaciones, los atacantes menos experimentados la aprovechan como herramienta de aprendizaje. En todos los casos, la IA generativa permite a los actores maliciosos operar más rápido y a mayor escala, lo que requiere una reevaluación regular de amenazas y medidas de seguridad robustas.
--- PUNTOS CLAVE DEL INFORME ANSSI (CERTFR-2026-CTI-001) ---
IA COMO HERRAMIENTA DE ATAQUE: Actores estatales de 42 grupos (10 Irán, 20 China, 9 Corea del Norte, 3 Rusia) han usado Google Gemini. La IA se usa para ingeniería social, perfiles falsos, contenido de phishing, desarrollo de malware (Promptflux, PromptLock) y análisis de datos exfiltrados. Los servicios de IA criminales (WormGPT, FraudGPT, EvilGPT) cuestan unos $100/mes. Ninguna IA puede aún realizar un ciberataque autónomo completo.
IA COMO OBJETIVO: Solo 250 documentos maliciosos pueden envenenar cualquier modelo de IA. El slopsquatting explota las alucinaciones de la IA para crear ataques a la cadena de suministro. Los servidores MCP que conectan LLMs a herramientas externas amplían las superficies de ataque. Más de 100.000 cuentas de ChatGPT fueron robadas mediante infostealers. Empleados de Samsung filtraron accidentalmente secretos de semiconductores a través de ChatGPT en 2023.
RECOMENDACIONES: Implementar compartimentación estricta de datos. Reevaluar regularmente las amenazas relacionadas con IA. Seguir las directrices de seguridad de ANSSI para el despliegue de IA generativa. Monitorear cuentas de IA comprometidas y datos de entrenamiento envenenados.
Comentarios