أصدرت الوكالة الوطنية الفرنسية لأمن أنظمة المعلومات في الرابع من فبراير 2026 تقريراً شاملاً من 12 صفحة يوضح كيف يتم استخدام الذكاء الاصطناعي التوليدي كسلاح من قبل مجرمي الإنترنت والقراصنة المدعومين من الدول، بينما يصبح في الوقت نفسه هدفاً للهجمات المتطورة. يقدم التقرير المعنون الذكاء الاصطناعي التوليدي في مواجهة الهجمات الإلكترونية تقييماً للتهديدات التي لوحظت طوال عام 2025 ويدعو إلى اليقظة المستمرة مع تطور المشهد بسرعة.
وفقاً للتقرير، لم يتم الإبلاغ عن أي هجمات إلكترونية باستخدام الذكاء الاصطناعي ضد الكيانات الفرنسية حتى الآن، ولم يُظهر أي نظام ذكاء اصطناعي القدرة على تنفيذ جميع مراحل الهجوم الإلكتروني بشكل مستقل. ومع ذلك، تحذر الوكالة من أن الذكاء الاصطناعي التوليدي يحسن بشكل كبير مستوى وكمية وتنوع وفعالية الهجمات، خاصة ضد البيئات غير المؤمنة بشكل جيد. تم تحديد جهات فاعلة حكومية من إيران والصين وكوريا الشمالية وروسيا تستخدم خدمات الذكاء الاصطناعي التجارية مثل جوجل جيميني للاستطلاع وإنشاء محتوى التصيد الاحتيالي وتطوير البرمجيات الخبيثة.
يحدد التقرير عدة تطورات مثيرة للقلق في أدوات الهجوم المدعومة بالذكاء الاصطناعي. اكتشفت جوجل برنامج بروميتفلكس، وهو برنامج خبيث متعدد الأشكال يستخدم واجهة برمجة جيميني لإعادة كتابة كود المصدر الخاص به بالكامل كل ساعة لتجنب الاكتشاف. طور باحثون من جامعة نيويورك برنامج فدية إثبات المفهوم بروميتلوك الذي يولد نصوص هجوم ديناميكياً أثناء التنفيذ. تقدم الأسواق الإجرامية الآن منصات كسر الحماية كخدمة مثل إسكيب جي بي تي ولوب جي بي تي، بينما يتم تدريب نماذج الذكاء الاصطناعي غير المقيدة مثل وورم جي بي تي 4 مباشرة على الأكواد الخبيثة وقوالب التصيد الاحتيالي بحوالي مائة دولار شهرياً.
تسلط الوكالة الضوء أيضاً على أن أنظمة الذكاء الاصطناعي نفسها أصبحت أهدافاً عالية القيمة. أظهرت أبحاث معهد أمن الذكاء الاصطناعي البريطاني ومعهد آلان تورينج أن 250 وثيقة مسمومة فقط تكفي لإفساد أي نموذج ذكاء اصطناعي توليدي بغض النظر عن حجم قاعدة البيانات. يستغل المهاجمون تقنية سلوبسكواتينغ من خلال تحديد أسماء حزم برمجية وهمية يتوهمها الذكاء الاصطناعي وإنشاء برمجيات خبيثة حقيقية بهذه الأسماء لتسميم سلاسل توريد البرمجيات. بين عامي 2022 و2023، تم اختراق أكثر من 100 ألف حساب مستخدم لتشات جي بي تي من خلال برامج سرقة المعلومات مثل رادامانثيس وبيعها في المنتديات الإجرامية.
توصي الوكالة المنظمات بالرجوع إلى دليل التوصيات الأمنية لأنظمة الذكاء الاصطناعي التوليدي عند تنفيذ حلول نماذج اللغة الكبيرة. يؤكد التقرير أنه بينما يستخدم الفاعلون المتقدمون الذكاء الاصطناعي لتحقيق مكاسب في الأداء وتوسيع نطاق العمليات، يستفيد المهاجمون الأقل خبرة منه كأداة تعلم. في جميع الحالات، يمكّن الذكاء الاصطناعي التوليدي الجهات الخبيثة من العمل بشكل أسرع وعلى نطاق أوسع، مما يستلزم إعادة تقييم منتظمة للتهديدات وتدابير أمنية قوية.
--- النقاط الرئيسية من تقرير الوكالة ---
الذكاء الاصطناعي كأداة هجوم: استخدمت جهات حكومية من 42 مجموعة (10 إيران، 20 الصين، 9 كوريا الشمالية، 3 روسيا) جوجل جيميني. يُستخدم للهندسة الاجتماعية والملفات الشخصية المزيفة ومحتوى التصيد وتطوير البرمجيات الخبيثة وتحليل البيانات المسروقة. تكلف خدمات الذكاء الاصطناعي الإجرامية حوالي 100 دولار شهرياً.
الذكاء الاصطناعي كهدف: 250 وثيقة خبيثة فقط يمكنها تسميم أي نموذج ذكاء اصطناعي. تم سرقة أكثر من 100 ألف حساب تشات جي بي تي عبر برامج سرقة المعلومات. كشف موظفو سامسونج عن طريق الخطأ أسرار أشباه الموصلات عبر تشات جي بي تي في 2023.
التوصيات: تنفيذ تقسيم صارم للبيانات. إعادة تقييم التهديدات المتعلقة بالذكاء الاصطناعي بانتظام. اتباع إرشادات الأمان لنشر الذكاء الاصطناعي التوليدي.
التعليقات