أصدرت شركة “أنثروبيك” (Anthropic)، إحدى الشركات الرائدة في أبحاث الأمان في الذكاء الاصطناعي، تقريراً مفصلاً يسلط الضوء على أن احتمالية استخدام النماذج اللغوية الكبيرة (LLMs) في تسهيل ارتكاب “جرائم كبرى” أو إحداث كوارث أمنية ليست مجرد فرضيات بعيدة المدى، بل هي مخاطر حقيقية تتطلب استراتيجيات احتواء استباقية.
1. تقليص الحواجز المعرفية أمام التهديدات البيولوجية والكيميائية
تؤكد “أنثروبيك” أن النماذج المتقدمة بدأت تظهر قدرات مقلقة في مجالات “الاستخدام المزدوج” (Dual-use). فبينما تُستخدم هذه النماذج في تسريع الأبحاث الطبية، يمكن استغلالها من قبل جهات غير مختصة لتجاوز العقبات التقنية المعقدة في تخليق العوامل الممرضة (Pathogens) أو إنتاج أسلحة بيولوجية وكيميائية.
وفقاً للتقرير، فإن الذكاء الاصطناعي لا يكتفي بتقديم المعلومات النظرية، بل يمكنه المساعدة في “بروتوكولات التنفيذ”، مثل تقديم إرشادات دقيقة حول كيفية عزل السلالات الجرثومية، أو تعديلها جينياً، أو حتى نصائح حول كيفية تخطي الرقابة وسلاسل التوريد الخاضعة للتنظيم.
2. معضلة “الضبط الدقيق” وتجاوز قيود السلامة (Jailbreaking)
من الناحية التقنية، أشارت الشركة إلى أن “مرشحات السلامة” (Safety Filters) التي يتم دمجها في النماذج ليست حصينة بالكامل. فمن خلال تقنيات “الضبط الدقيق” (Fine-tuning) التي يقوم بها المستخدمون الخارجيون، يمكن إزالة قيود الأمان الأساسية.
هذا يعني أنه حتى لو أطلقت الشركة نموذجاً “آمناً”، فإن جهة معادية تمتلك موارد حوسبية كافية يمكنها إعادة تدريب النموذج بشكل جزئي لجعله مطيعاً في سياقات إجرامية أو تخريبية، وهو ما يُعرف في الأوساط التقنية بـ “تجريد النموذج من المواءمة الأخلاقية” (De-alignment).
3. مستويات سلامة الذكاء الاصطناعي (ASL): إطار عمل وقائي
استجابةً لهذه المخاطر، تبنت “أنثروبيك” سياسة “التوسع المسؤول” (Responsible Scaling Policy – RSP)، والتي تتضمن نظاماً يسمى “مستويات سلامة الذكاء الاصطناعي” (AI Safety Levels – ASL)، وهو نظام مستوحى من مستويات السلامة البيولوجية (BSL) المتبعة في المختبرات:
- ASL-1 & ASL-2: تشير إلى النماذج الحالية التي تقدم فوائد كبرى مع مخاطر محدودة يمكن السيطرة عليها.
- ASL-3: يمثل النماذج التي تُظهر قدرات عالية في تسهيل الهجمات السيبرانية أو البيولوجية، وتتطلب بروتوكولات أمنية مشددة ومنع الوصول المفتوح إلى أوزان النموذج (Model Weights).
- ASL-4 فما فوق: يمثل النماذج ذات القدرات الذاتية (Autonomous Capabilities) التي قد تشكل تهديداً وجودياً أو كارثياً إذا لم يتم ضبطها بدقة متناهية.
4. التهديدات السيبرانية والتضليل الممنهج
إلى جانب التهديدات المادية، يحذر التقرير من قدرة النماذج المستقبلية على تنفيذ هجمات سيبرانية ذاتية التشغيل (Autonomous Cyberattacks)، بدءاً من اكتشاف الثغرات الأمنية في البنية التحتية الحساسة وصولاً إلى كتابة شيفرات خبيثة معقدة تتجاوز أنظمة الدفاع التقليدية. كما نوهت الشركة إلى خطر “هندسة الإقناع” حيث يمكن للنماذج توليد حملات تضليل واسعة النطاق قادرة على زعزعة الاستقرار الاجتماعي والسياسي بدقة متناهية.
الخاتمة: ضرورة التنظيم الاستباقي
تخلص “أنثروبيك” إلى أن الفجوة بين قدرات الذكاء الاصطناعي وبروتوكولات الأمان العالمية آخذة في التقلص. وتدعو الشركة المجتمع العلمي وصناع القرار إلى ضرورة تبني معايير صارمة لاختبار النماذج (Red Teaming) قبل إطلاقها، مؤكدة أن “خطر الفشل في ضبط هذه التقنيات قد يؤدي إلى عواقب كارثية تتجاوز قدرة المؤسسات الأمنية الحالية على الاحتواء”.
المصطلحات الرئيسية المستخدمة:
- Dual-use: الاستخدام المزدوج (للأغراض السلمية والعسكرية).
- LLMs (Large Language Models): النماذج اللغوية الكبيرة.
- Fine-tuning: الضبط الدقيق للمعلمات.
- Model Weights: أوزان النموذج (البيانات الهيكلية التي تحدد سلوكه).
- Red Teaming: فرق الاختبار الهجومي (لاكتشاف الثغرات).
- Autonomous Capabilities: القدرات الاستقلالية/الذاتية.



