法国国家信息系统安全局ANSSI于2026年2月4日发布了一份12页的综合威胁报告,详细说明了生成式人工智能如何被网络犯罪分子和国家支持的黑客武器化,同时也成为复杂攻击的目标。这份题为《生成式AI与网络攻击》的报告评估了2025年观察到的威胁,并呼吁在形势快速演变的情况下保持持续警惕。
根据ANSSI报告,迄今为止尚未报告任何针对法国实体使用人工智能的网络攻击,也没有任何AI系统展示出自主执行网络攻击所有阶段的能力。然而,该机构警告说,生成式AI显著提高了攻击的水平、数量、多样性和有效性,特别是针对安全性较差的环境。来自伊朗、中国、朝鲜和俄罗斯的国家支持威胁行为者被发现使用谷歌Gemini等商业AI服务进行侦察、钓鱼内容生成和恶意软件开发。
报告指出了AI驱动攻击工具的几个令人担忧的发展。谷歌检测到Promptflux,这是一种多态恶意软件,使用Gemini API每小时完全重写其源代码以逃避检测。纽约大学的研究人员开发了PromptLock,这是一种概念验证勒索软件,可在运行时动态生成攻击脚本。犯罪市场现在提供EscapeGPT和LoopGPT等越狱即服务平台,而WormGPT 4等不受限制的AI模型直接在恶意代码和钓鱼模板上训练,每月约一百美元。
ANSSI还强调,AI系统本身正在成为高价值目标。英国AI安全研究所和艾伦图灵研究所的研究表明,无论数据库大小如何,只需250份被污染的文档就足以破坏任何生成式AI模型。攻击者通过识别AI系统产生幻觉的虚构软件包名称并使用这些名称创建真正的恶意软件来利用slopsquatting技术,以毒害软件供应链。2022年至2023年间,超过10万个ChatGPT用户账户通过Rhadamanthys等信息窃取程序被入侵并在犯罪论坛上出售。
该机构建议组织在实施大语言模型解决方案时参考ANSSI的《生成式AI系统安全建议》指南。报告强调,虽然高级行为者使用AI来提高性能和扩大运营规模,但经验较少的攻击者将其作为学习工具。在所有情况下,生成式AI使恶意行为者能够更快速、更大规模地运作,这需要定期重新评估威胁并采取强有力的安全措施。
--- ANSSI报告要点摘要 (CERTFR-2026-CTI-001) ---
AI作为攻击工具:来自42个组织(伊朗10个、中国20个、朝鲜9个、俄罗斯3个)的国家行为者使用了谷歌Gemini。AI被用于社会工程、虚假档案、钓鱼内容、恶意软件开发(Promptflux、PromptLock)和分析窃取的数据。犯罪AI服务(WormGPT、FraudGPT、EvilGPT)每月约100美元。目前没有AI能够进行完全自主的网络攻击。
AI作为目标:仅250份恶意文档就可以污染任何AI模型。Slopsquatting利用AI幻觉创建供应链攻击。连接大语言模型与外部工具的MCP服务器扩大了攻击面。超过10万个ChatGPT账户通过信息窃取程序被盗。三星员工在2023年意外通过ChatGPT泄露了半导体机密。
建议措施:实施严格的数据隔离。定期重新评估与AI相关的威胁。遵循ANSSI生成式AI部署安全指南。监控被入侵的AI账户和被污染的训练数据。
评论