تحذير من رسائل البريد الإلكتروني الاحتيالية المطورة بالذكاء الاصطناعي
حذرت وكالة الأمن السيبراني البريطانية من أن التطور السريع للذكاء الاصطناعي سيجعل من الصعب على المستخدمين التفريق بين رسائل البريد الإلكتروني الاحتيالية التي تهدف إلى سرقة كلمات المرور أو البيانات الشخصية والرسائل الحقيقية.
وقال المركز الوطني للأمن السيبراني (NCSC) في تقريره الأخير عن تأثير الذكاء الاصطناعي على التهديدات السيبرانية التي تواجه المملكة المتحدة، إن الذكاء الاصطناعي سيزيد من حجم الهجمات السيبرانية وتأثيرها خلال العامين المقبلين.
وأضاف التقرير أن الذكاء الاصطناعي التوليدي، وهو نوع من التكنولوجيا التي تستطيع إنتاج نصوص وصور وأصوات مقنعة من مدخلات بسيطة، فقد أصبح متاحًا للجمهور عبر روبوتات الدردشة مثل ChatGPT والنماذج المفتوحة المصدر.
تحذير من رسائل البريد الإلكتروني الاحتيالية المطورة بالذكاء الاصطناعي
وأشار التقرير إلى أن هذه التكنولوجيا ستصعب من مهمة تحديد أنواع مختلفة من الهجمات السيبرانية مثل الرسائل الاحتيالية، والتي تستخدم لخداع الناس وإجبارهم على تسليم معلومات سرية.
وقال التقرير: “في عام 2025، سيجعل الذكاء الاصطناعي التوليدي من الصعب على الجميع، بغض النظر عن مستوى فهمهم للأمن السيبراني، التمييز بين الرسالة الإلكترونية الحقيقية والرسائل الإلكترونية الاحتيالية”.
وتوقع التقرير أيضًا زيادة عمليات الاحتيال التي تطالب الضحية بفدية، وهي نوع من الهجمات التي تستخدم برامج خبيثة لتشفير أنظمة الكمبيوتر للضحايا واستخراج بيانات حساسة وطلب فدية مقابل فك التشفير.
وقال التقرير إن أدوات الذكاء الاصطناعي التوليدي تساعد بالفعل على جعل رسائل البريد الإلكتروني تبدو حقيقية؛ إذ إنها على عكس الرسائل السابقة، لن تحتوي على أخطاء إملائية أو نصية يسهل رصدها، كما أنها قد تبدو شخصية دون شك.
وبحسب هيئة المعلومات البريطانية، وهي الهيئة الرقابية على البيانات في المملكة المتحدة، أُبلِغَ عن 706 حالة احتيال تطالب بفدية في المملكة المتحدة في عام 2022، مقارنة بـ 694 حادثًا في عام 2021.
ولكن أضاف التقرير أن الذكاء الاصطناعي سيعمل أيضًا كأداة دفاعية، حيث يمكن للتكنولوجيا اكتشاف الهجمات وتصميم أنظمة أكثر أمانًا.
المصدر: الغارديان
إقرأ أيضًا:
الرابط المختصر هنا ⬇