جوجل تحذر: اختراقات الذكاء الاصطناعي تتحول إلى تهديد عالمي
حذّرت شركة جوجل من أن الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي انتقلت خلال أشهر قليلة فقط من كونها تهديدًا ناشئًا إلى خطر واسع النطاق على مستوى عالمي، في ظل استخدام متزايد لنماذج الذكاء الاصطناعي المتطورة من قبل جماعات إجرامية وجهات مرتبطة بدول معادية.
الذكاء الاصطناعي يسرّع وتيرة الهجمات الإلكترونية

وأوضح تقرير صادر عن مجموعة استخبارات التهديدات التابعة لجوجل أن النماذج الحديثة للذكاء الاصطناعي أصبحت تمتلك قدرات متقدمة للغاية في البرمجة، ما جعلها أدوات فعالة لاستغلال الثغرات الأمنية في أنظمة وبرمجيات متنوعة.
وأشار التقرير إلى أن جماعات إجرامية، إضافة إلى جهات مرتبطة بالصين وكوريا الشمالية وروسيا، تستخدم نماذج تجارية مثل Gemini وClaude وأدوات طورتها شركة OpenAI بهدف تحسين الهجمات الإلكترونية وزيادة سرعتها واتساع نطاقها.
وقال جون هالتكويست، كبير المحللين في مجموعة استخبارات التهديدات التابعة لجوجل، إن الاعتقاد بأن سباق استغلال الثغرات عبر الذكاء الاصطناعي لم يبدأ بعد هو “تصور خاطئ”، مؤكدًا أن هذا السباق “بدأ بالفعل”.
وأضاف أن الجهات المنفذة للهجمات تستخدم الذكاء الاصطناعي لتعزيز سرعة العمليات وتعقيدها، فضلًا عن تطوير برمجيات خبيثة أكثر كفاءة وتحسين قدرتها على البقاء داخل الأنظمة المستهدفة لفترات أطول.
وفي تطور لافت، رفضت شركة Anthropic مؤخرًا إطلاق أحد أحدث نماذجها للذكاء الاصطناعي، المعروف باسم Mythos، بعدما اعتبرت أنه يمتلك قدرات خطيرة قد تهدد الحكومات والمؤسسات المالية إذا استُخدم بشكل غير مشروع.
وقالت الشركة إن النموذج تمكن من اكتشاف ثغرات “يوم الصفر” في جميع أنظمة التشغيل الرئيسية ومتصفحات الإنترنت الكبرى، وهي ثغرات غير معروفة سابقًا لمطوري البرمجيات.
وأكدت Anthropic أن هذه الاكتشافات تستوجب “تنسيقًا دفاعيًا واسع النطاق” على مستوى قطاع التكنولوجيا.
جماعات إجرامية تقترب من “هجمات جماعية”

وبحسب تقرير جوجل، فإن إحدى الجماعات الإجرامية كانت على وشك استغلال ثغرة أمنية من نوع “يوم الصفر” لتنفيذ حملة اختراق واسعة النطاق، مع مؤشرات على استخدامها نموذج ذكاء اصطناعي مختلفًا عن Mythos.
كما كشف التقرير أن بعض الجهات كانت تختبر أداة OpenClaw، التي أثارت جدلًا واسعًا منذ انتشارها في فبراير الماضي، بعدما أتاحت للمستخدمين الاعتماد على وكيل ذكاء اصطناعي دون قيود واضحة، مع تسجيل حالات حذف جماعي لصناديق البريد الإلكتروني.
خبراء الأمن: الذكاء الاصطناعي يفيد المهاجمين والمدافعين
من جانبه، قال ستيفن مردوخ، أستاذ هندسة الأمن في University College London، إن أدوات الذكاء الاصطناعي يمكن أن تدعم جهود الدفاع السيبراني بقدر ما تساعد القراصنة.
وأوضح أن الطرق التقليدية لاكتشاف الثغرات الأمنية تتراجع تدريجيًا، في وقت أصبحت فيه نماذج اللغة الكبيرة عنصرًا أساسيًا في هذا المجال، مشيرًا إلى أن التأثير الكامل لهذه التحولات لم يتضح بعد.
تشكيك في مكاسب الذكاء الاصطناعي الاقتصادية

ورغم المخاوف المتزايدة بشأن الاستخدامات الأمنية للذكاء الاصطناعي، لا تزال هناك تساؤلات حول مدى قدرته على تحقيق مكاسب اقتصادية واسعة، خاصة في القطاع العام.
وفي هذا السياق، حذّر Ada Lovelace Institute، وهو مركز أبحاث مستقل متخصص في الذكاء الاصطناعي، من المبالغة في تقديرات فوائد التكنولوجيا على الإنتاجية.
وكانت الحكومة في بريطانيا قد قدّرت أن الاستثمارات في الأدوات الرقمية والذكاء الاصطناعي قد تحقق وفورات ومكاسب إنتاجية تصل إلى 45 مليار باوند.
لكن تقريرًا نشره المعهد أكد أن معظم الدراسات الحالية تركز على تقليل التكاليف أو توفير الوقت، دون تقييم فعلي لتحسين الخدمات العامة أو تأثير التكنولوجيا على رفاهية الموظفين.
دعوات لمراجعة تقديرات الإنتاجية
وأشار التقرير إلى أن بعض التقديرات الحكومية تعتمد على افتراضات غير مختبرة ومنهجيات قد لا تعكس الواقع العملي بدقة، ما يخلق فجوة بين الثقة الكبيرة في أرقام الإنتاجية وبين قوة الأدلة الداعمة لها.
ودعا المعهد إلى اعتماد دراسات طويلة الأمد لقياس تأثير الذكاء الاصطناعي، مع ضرورة أن تبدأ الجهات الحكومية بتقييم نتائج برامج الذكاء الاصطناعي منذ المراحل الأولى لتطبيقها، إضافة إلى مراعاة حالة عدم اليقين المرتبطة بتأثير هذه التكنولوجيا مستقبلًا.
المصدر: الغارديان
إقرأ أيضًا:
الرابط المختصر هنا ⬇