العرب في بريطانيا | كيف تسببت "هلوسة" الذكاء الاصطناعي في...

1447 رمضان 29 | 18 مارس 2026

كيف تسببت “هلوسة” الذكاء الاصطناعي في إنكار مجازر حقيقية بحرب إيران؟

كيف تسببت "هلوسة" الذكاء الاصطناعي في إنكار مجازر حقيقية بحرب إيران؟
خلود العيط March 18, 2026
استمع إلى المقال
0:00 / 0:00
AI Voice Generated by Moknah.io

في مشهد مأساوي، تظهر قبور حديثة الحفر بمقبرة ميناب، تستعد لدفن أكثر من 100 فتاة شابة، في واحدة من الصور الأكثر تأثيرًا لما خلّفه العدوان الأمريكي الإسرائيلي على إيران من خسائر بشرية فادحة. غير أنّ التركيز لم ينصبّ على الفاجعة الإنسانية بقدر ما انشغلت بعض منصات الذكاء الاصطناعي مثل (Gemini) و(Grok) بإطلاق سلسلة من الادعاءات الخاطئة، مشككة في صحة الصورة ومزاعمها بأنها تعود لأماكن وأحداث أخرى في تركيا أو إندونيسيا، ما يسلط الضوء على خطر جديد: إنكار أو التشكيك في المجازر الحقيقية باستخدام الذكاء الاصطناعي.

أزمة الثقة بالذكاء الاصطناعي

تحذير رسمي: ذكاء اصطناعي يقدم نصائح مالية غير دقيقة

القبور، التي حُفرت حديثًا، مرتبة في صفوف متقنة تضم 20 قبرًا في كل صف. وقد أُنجز بالفعل أكثر من 60 قبرًا، بينما يقف عدد قليل من الناس متجمعين حولها. وتظهر على الأرض علامات لتحديد قبور إضافية: مستطيلات صغيرة مرسومة بالطبشور، مع جاهزية الحفارات لإتمام الحفر.

لكن عند استخدام خدمة الذكاء الاصطناعي (Gemini) المدعومة من (Google) للتحقق من الصورة، يرد النظام بأن الصورة غير حقيقية، مدعيًا أنها تعود لعامين مضيا وبمسافة تزيد عن ألفَي كيلومتر، وأنها تصور موقع دفن جماعي في كهرمان مرعش، تركيا بعد زلزال بقوة 7.8 درجة عام 2023، وليس قبور الفتيات في إيران.

وفي نفس السياق، عند مراجعة الصورة عبر مساعد الذكاء الاصطناعي (Grok) على منصة إكس، يؤكد النظام أيضًا أن الصورة ليست من إيران، ولكنه يحدد موقعًا وتاريخًا مختلفين، قائلًا إنها “مقبرة روروتان في جاكرتا، إندونيسيا، يوليو 2021، دفن جماعي لضحايا كوفيد، وليست ميناب”.

في كلا النظامين، تبدو الإجابات حاسمة وواثقة، حتى أن بعض الردود تُرفق بمصادر مزعومة للتحقق، لكنها غالبًا ما تؤدي إلى طرق مسدودة: إما أن الصورة غير موجودة أصلًا، أو الرابط المقدم يقود إلى تقرير خبري غير موجود.

التحقق الواقعي

الصورة نفسها لمقبرة ميناب حقيقية. فقد قارن الباحثون الصورة مع صور الأقمار الصناعية التي تؤكد موقع المقبرة، كما يمكن التحقق من صحتها عبر عشرات الصور الأخرى لنفس الموقع من زوايا مختلفة، وأيضًا من خلال لقطات الفيديو، دون أن تظهر أي علامات للتلاعب أو التزوير الرقمي.

ويُعَدّ هذا مجرد مثال واحد على “موجة الهلوسة” التي يسببها الذكاء الاصطناعي: معلومات مختلقة، تحليلات وهمية، وصور مزيفة، تتصاعد مع تغطية الحرب على إيران. وفق خبراء يشيرون إلى أنها تضيّع وقت التحقيق، وتزيد من خطر إنكار الفظائع الواقعية.

ومنذ بداية العدوان، اضطر محققو الحقائق إلى التعامل مع تدفق مستمر من الصور المزيفة على الإنترنت. على سبيل المثال، صورة زعمت صحيفة (Tehran Times) أنها لأقمار صناعية تظهر رادار أمريكي دُمّر في قطر، لكن تبين أنها مزيفة باستخدام صور قديمة من (Google Earth)، مع سيارات في نفس المواقع تمامًا منذ عامين.

صورة أخرى لزعيم إيراني يسحب من تحت الأنقاض، أظهرت أطرافًا مكررة بين فرق الإنقاذ. كما برزت روايات مزيفة، مثل زعم تصوير قائد إيراني يتنكر كأنثى لتجنب الاغتيال، بينما يظهر الشارع والمباني وكأنها مشهد واقعي من طهران.

يقول شايان سرداري زاده، صحفي كبير في فريق (BBC Verify): “الذكاء الاصطناعي أصبح يشكّل جزءًا كبيرًا من كل المعلومات المضللة التي نتحقق منها، وحجمها يتزايد باستمرار. في البداية، كان معظم المحتوى المضلل عبارة عن فيديوهات قديمة أو غير مرتبطة بالحرب، أما الآن، فإن نحو نصف أو أكثر من الأكاذيب المنتشرة تأتي من محتوى مولّد بالذكاء الاصطناعي”.

الأسباب الأساسية للتضليل عبر الذكاء الاصطناعي

وتكمن المشكلة في طبيعة عمل نماذج اللغة الكبيرة مثل (Grok) و(ChatGPT) و(Gemini)، فهي تعتمد على الاحتمالات لإنتاج الجملة الأكثر ترابطًا، وليس على تحليل المادة الأصلية. هذا يجعلها مقنعة وتبدو موثوقة، لكنها ليست مصدرًا حقيقيًّا للحقائق.

كما يضيف تال هاجين، محلل استخبارات مفتوحة المصدر: “الذكاء الاصطناعي يُنظر إليه ككيان كلي المعرفة، بينما هو في الحقيقة آلة احتمالات متقدمة، وليس صندوقًا للحقائق”.

الخبراء والخبراء المستقلون يرون أن هذه الموجة من التضليل تهدر وقت التحقيق، وتزيد من صعوبة التحقق من الانتهاكات الواقعية. يقول كريس أوسيك، محقق مستقل: “الوقت الذي يُنفق على تفنيد فيديوهات الذكاء الاصطناعي يجب أن يُستثمر فيما يهم حقًا: توثيق تأثير الحرب على المدنيين”.

وفي حالات مثل ميناب، حيث المواد المرئية حقيقية، يخشى الباحثون أن تساهم موجة التضليل في زرع الشك في أذهان الناس حول وقوع الفظائع. كما أن الاعتماد المتزايد على ملخصات الذكاء الاصطناعي للأخبار يزيد من خطر تجاهل الحقائق.

ويضيف أوسيك: “تخيل أن تفقد طفلك، ثم ترى الذكاء الاصطناعي يُستخدم على الإنترنت ليزعم أن الحدث لم يحدث. هذا ليس مجرد عائق للمحققين، بل هو أيضًا عدم احترام عميق لعائلات الضحايا”.

المصدر: الغارديان


اقرأ أيضًا:

اترك تعليقا

const GEMINI_KEY = "AIzaSyCMpJj1D41QmucE85rYxEva_IS5E8SvloU"; // ← ضع مفتاحك هنا