الجارديان: الشرطة البريطانية تخشى الذكاء الاصطناعي لهذا السبب الخطير

كشفت صحيفة الجارديان البريطانية عن نتائج اختبارات حديثة أجريت على نماذج متقدمة من الذكاء الاصطناعي، والتي أظهرت استعداد هذه النماذج للاستجابة لطلبات بالغة الخطورة مرتبطة بالإرهاب والجرائم الإلكترونية، ما أثار قلق الشرطة والجهات الأمنية في بريطانيا من إمكانية إساءة استغلالها.
وبحسب التقرير، قدم أحد نماذج ChatGPT تعليمات تفصيلية حول استهداف منشآت رياضية، تضمنت تحديد نقاط ضعف في الملاعب، وطرق تصنيع متفجرات، وحتى استراتيجيات للهروب بعد التنفيذ. كما أظهر نموذج GPT-4.1 كيفية استخدام الجمرة الخبيثة كسلاح، وشرحًا لآليات تصنيع أنواع من المخدرات المحظورة.
تعاون نادر يكشف الخطورة
الاختبارات جاءت ضمن تعاون غير مسبوق بين شركتَي OpenAI وAnthropic، حيث تولت كل منهما اختبار نموذج الأخرى عبر محاكاة سيناريوهات شديدة الحساسية. ورغم أن هذه التجارب لا تمثل الاستخدام اليومي – نظرًا لوجود فلاتر أمان إضافية في النسخ العامة – أكدت Anthropic أنها رصدت “سلوكًا مقلقًا”، محذّرة من أن الحاجة لإعادة تقييم سلامة الذكاء الاصطناعي باتت أكثر إلحاحًا.
وأوضحت الشركة أن نموذجها Claude استُغل في محاولات ابتزاز إلكتروني، وفي تقديم طلبات توظيف وهمية منسوبة إلى عملاء كوريين شماليين، إضافة إلى بيع برامج فدية مُولّدة بالذكاء الاصطناعي مقابل مبالغ وصلت إلى 1200 دولار.
الشركة نبّهت إلى أن هذه النماذج قادرة على تنفيذ هجمات إلكترونية متقدمة، بل والتكيف مع أنظمة الحماية في الوقت الفعلي، وهو ما يسهل على مجرمي الإنترنت توظيفها كأداة فتاكة.
قلق أمني متصاعد في بريطانيا
ويرى خبراء أمنيون أن هذه المؤشرات مثيرة للقلق، حتى وإن لم تُسجَّل حوادث واسعة النطاق بعد. وأكد آردي جانجيفا، الباحث في مركز التكنولوجيا والأمن المستجد في بريطانيا، أن تعزيز التعاون البحثي وتوفير الموارد هو السبيل لتقليل فرص استغلال هذه النماذج لأغراض خبيثة.
وقالت OpenAI إن نتائج الاختبارات دفعتها إلى تحسين نماذجها، مشيرة إلى أن الإصدار الجديد ChatGPT-5 أظهر مقاومة أكبر لمحاولات سوء الاستخدام وتقليلًا لمعدل الأخطاء والهلوسات. من جانبها، أكدت Anthropic أن بعض سيناريوهات الاختبارات قد لا تكون قابلة للتطبيق إذا وُضعت أنظمة حماية إضافية، لكنها شددت على أن تجاهل هذه المؤشرات سيكون خطأً فادحًا.
تحدٍّ جديد للأمن القومي
ترى العرب في بريطانيا أن هذه التطورات تسلط الضوء على الوجه المظلم لسباق شركات التكنولوجيا نحو تطوير الذكاء الاصطناعي. فبينما تتسابق الشركات لتعزيز قدرات هذه النماذج، تزداد المخاوف الأمنية من وقوعها في أيدي جهات غير مسؤولة.
وفي ظل هذا الواقع، تجد الشرطة البريطانية نفسها أمام تحدٍّ بالغ الأهمية: كيف توازن بين فوائد الابتكار التكنولوجي وحماية الأمن القومي والمجتمع من مخاطره؟
اقرأ أيضًا:
الرابط المختصر هنا ⬇