رغم أخطائه “القاتلة”.. بريطانيا تعتمد على الذكاء الاصطناعي لحسم ملفات اللجوء بسرعة

تستعد وزارة الداخلية البريطانية لاعتماد أداة ذكاء اصطناعي جديدة في معالجة طلبات اللجوء المتراكمة، على الرغم من أنها ارتكبت “أخطاء جسيمة” خلال المرحلة التجريبية، وفق ما كشفته صحيفة The i Paper.
وتُظهر وثائق حكومية أن نحو 9% من طلبات اللجوء التي خضعت للمراجعة باستخدام هذه الأداة كانت معيبة إلى درجة استوجبت استبعادها من التجربة التي نُفّذت العام الماضي.
ومع بلوغ عدد الطلبات والاستئنافات المتراكمة نحو 140,000 حالة، حذّر نوّاب وجمعيات تُعنى باللاجئين من أن إدخال هذه التقنية قد يؤثر على آلاف الحالات، بما في ذلك تلك التي تُعد “مسائل حياة أو موت”.
تحذيرات من تلخيص مقابلات اللجوء بالذكاء الاصطناعي دون تدقيق بشري
النائب العمالي والمحامي توني فوغان، رئيس المجموعة البرلمانية المختصة بشؤون اللاجئين، دعا الحكومة إلى تطوير الأداة قبل اعتمادها، مؤكدًا ضرورة أن يتحقق موظفو اللجوء من الملخصات التي تُنتجها الأداة، ومشددًا على أن “ليس من مصلحة أحد أن تتسرّب الأخطاء إلى عملية اتخاذ القرار”، مؤكدًا أن الذكاء الاصطناعي “لا يمكن أن يحل محل قراءة جميع الوثائق”.
وأضاف فوغان: “لا شك أن اعتماد التكنولوجيا يمكن أن يجعل عمل الحكومة أكثر كفاءة، لكن المسألة تكمن في كيفية استخدام هذه الأدوات لدعم الجهود البشرية دون الإضرار بها”.
ورغم تأييده لمبدأ استخدام الذكاء الاصطناعي، شدّد فوغان على ضرورة أن يستمر موظفو الحالات في مراجعة “النص الكامل لمقابلات طالبي اللجوء، لا مجرد ملخص الذكاء الاصطناعي” حتى تنخفض نسبة الخطأ إلى مستويات مقبولة.
وفي السياق نفسه، قال تيم هيلتون، الرئيس التنفيذي لمنظمة Refugee Action: “القرارات المتعلقة باللجوء قد تكون مسألة حياة أو موت. ورغم أهمية تقليص فترات الانتظار، لا يجوز أن يتم ذلك على حساب الدقة والإنسانية”.
هل يُضحّي النظام الجديد للدولة البريطانية بدقة اللجوء مقابل السرعة؟
تواجه الحكومة البريطانية ضغوطًا متزايدة لمعالجة تراكم ملفات اللجوء، في ظل تصاعد الاحتجاجات أمام فنادق إيواء المهاجرين في أنحاء بريطانيا. وتُخطّط وزيرة الداخلية، إيفيت كوبر، للإعلان في الخريف المقبل عن إطلاق مسار سريع لاتخاذ قرارات اللجوء خلال أسابيع بدلاً من الانتظار لأشهر أو سنوات.
ومن المتوقع أن تبدأ وزارة الداخلية باستخدام أداة “تلخيص قضايا اللجوء” (ACS) بشكل كامل بحلول يناير 2026، بحسب وثائق رسمية حصلت عليها مجموعة Foxglove التقنية من خلال قوانين حرية المعلومات، وشاركتها حصريًا مع صحيفة The i Paper.
وتقول الوزارة إن الأداة مصممة لتسريع وتيرة معالجة الطلبات من خلال “استخلاص وتلخيص معلومات من مقابلات طالبي اللجوء”، على أن تُستخدم هذه الملخصات لمساعدة الموظفين في اتخاذ قرارات بشأن قبول الطلب أو رفضه. ورغم إشادة الحكومة بالتجربة الأولية، حيث صرّحت الوزيرة أنجيلا إيغل، المسؤولة عن شؤون اللجوء والحدود، لإذاعة LBC في أبريل بأن الأداة “تُقلّص وقت التلخيص بمقدار الثلث تقريبًا”، فإن تقرير التقييم الرسمي كشف جوانب مقلقة.
فقد أشار التقرير إلى أن 9% من الملخصات التي أُنتجت خلال التجربة اعتُبرت غير دقيقة أو ناقصة، ما استوجب استبعادها. كما أظهر التقرير أن نحو 23% من موظفي اللجوء أعربوا عن “عدم ثقتهم الكاملة” في مخرجات الأداة. ورغم هذه المؤشرات، لم توضح الوزارة طبيعة الأخطاء التي تضمنتها تلك الملخصات، ورفضت تقديم أي تفاصيل إضافية عند سؤالها من قبل The i Paper.
وقال عمران حسين، مدير الشؤون الخارجية في مجلس اللاجئين: “رغم أن جهود الحكومة لمعالجة التراكم محل ترحيب، فإن الاعتماد على أدوات ذكاء اصطناعي غير جاهزة بالكامل لاتخاذ قرارات مصيرية يُعد مخاطرة كبيرة”.
وفي السياق ذاته، صرّح جيك هيرفرت، رئيس قسم الأبحاث في منظمة Big Brother Watch المعنية بالحريات المدنية: “إسناد قرارات بالغة الأهمية إلى أدوات ذكاء اصطناعي مليئة بالأخطاء أمر مقلق… يجب على الحكومة التوقف عن مطاردة تقنيات براقة على حساب السلامة، والاستثمار بدلاً من ذلك في الكوادر البشرية”.
ويأتي هذا في وقت وصل فيه عدد المهاجرين الذين عبروا القناة إلى بريطانيا على متن قوارب صغيرة منذ بداية العام إلى 25,000 شخص في رقم قياسي. ويُذكر أن اللاجئين الذين يُرفض طلبهم الأولي ينتظرون في المتوسط 54 أسبوعًا حتى يُبتّ في استئنافهم. وبلغ عدد الاستئنافات المتراكمة حتى مارس 51,000، دون احتساب 79,000 طلب لا يزال بانتظار القرار الأولي.
وقال بن ماغواير، النائب الليبرالي الديمقراطي عن شمال كورنوال والمدعي العام الظل للحزب: “من الضروري تسريع تقييم طلبات اللجوء بعد أن ترك المحافظون النظام في حالة فوضى شديدة… لكن الحكومة مطالَبة بالشفافية فيما يتعلق بالأخطاء، والعمل على تصحيحها قبل توسيع الاعتماد على هذه الأداة، لأن هذه قرارات مصيرية تتطلب السرعة والدقة معًا”.
سجل مثير للجدل لوزارة الداخلية في تجريب الذكاء الاصطناعي بقرارات مصيرية
ليست هذه المرة الأولى التي تُواجه فيها وزارة الداخلية انتقادات بشأن محاولاتها استخدام الذكاء الاصطناعي في قضايا اللجوء. ففي وقت سابق من هذا العام، كشفت الوزارة عن نيتها استخدام الذكاء الاصطناعي لتقدير أعمار طالبي اللجوء ممن يصرّحون بأنهم قاصرون، وقد نبّه تقرير لهيئة مراقبة الحدود إلى أن “بعض القرارات الخاطئة حتمية” في مثل هذا النظام.
كما تسببت الوزارة بجدل مماثل عام 2020 حين ألغت خوارزمية لاتخاذ قرارات التأشيرة بعدما تبيّن أنها تُفضّل المتقدمين البيض من دول معينة.
ورفضت وزارة الداخلية، عند سؤالها من قبل The i Paper، الإجابة عن أسئلة تتعلق بالتحسينات التي قد تُجرى على أدوات الذكاء الاصطناعي، أو الاستجابة لتوصيات تقرير التقييم.
لكن متحدثًا باسم الوزارة قال: “تُسهم هذه التقنية الجديدة في تسريع معالجة الطلبات ضمن خطة الوزارة لإعادة ضبط نظام اللجوء، وخفض التراكم، وإنهاء استخدام الفنادق بحلول نهاية هذه الدورة البرلمانية”.
وأضاف: “ستُساعد التقنية الجديدة موظفي اللجوء على اتخاذ قرارات دقيقة قائمة على الأدلة، مع تقليص الوقت المُستهلك في المهام الإدارية المرافقة”.
تأجيل إطلاق أداة الذكاء الاصطناعي إلى أن تُوضّح الحكومة آليات التعامل مع الأخطاء
تشير وثائق حرية المعلومات التي حصلت عليها مجموعة Foxglove إلى أن الحكومة ماضية في تطبيق أداة تلخيص قضايا اللجوء (ACS) على مراحل حتى يناير 2026. وتُظهر الوثائق أن الأداة تم تطويرها داخلياً وتعتمد على نموذج GPT4 من شركة OpenAI، وقد تم تدريبها باستخدام نماذج لغوية ضخمة.
لكن نماذج الذكاء الاصطناعي المشابهة لـ ChatGPT كثيرًا ما تواجه مشكلات في الدقة، من بينها ظاهرة تُعرف بـ”الهلوسة”، حيث تُنتج الأداة معلومات خاطئة وتقدمها على أنها صحيحة. وطلبت Foxglove الاطلاع على تقييم الأثر على المساواة للأداة وهو تقرير يُفترض أن يضمن عدم التمييز ضد مجموعات معينة، لكن وزارة الداخلية رفضت الإفصاح عنه.
وقال تيم سكويريل، رئيس قسم الاستراتيجية في Foxglove: “قرارات اللجوء قد تكون مسألة حياة أو موت. لا يمكن الوثوق بروبوت محادثة يرتكب أخطاء فادحة تُحتّم التخلص من نتائجه في نحو 10% من الحالات”.
وتابع: “نطالب بتعليق إطلاق هذه الأداة المشكوك فيها إلى حين توضيح الحكومة كيف تنوي التعامل مع هذه الإشكاليات”.
تجربة فاشلة لأداة ذكاء اصطناعي ثانية في نظام اللجوء تثير التساؤلات حول جدوى التكنولوجيا
بالتوازي مع ACS، تعمل الوزارة على تطوير أداة ثانية تُدعى Asylum Policy Search، وهي مساعد بحث ذكي يُفترض أن يُسهّل الوصول إلى “معلومات السياسة الخاصة بالدول”.
لكن النتائج الأولية لم تكن مشجعة؛ إذ أشار 46% من الموظفين المشاركين في التجربة إلى أنهم لن يستمروا في استخدام الأداة، مشيرين إلى أنهم “لم يروا فائدة حقيقية” مقارنة بالأدوات التقليدية غير المعتمدة على الذكاء الاصطناعي.
رأي منصة العرب في بريطانيا (AUK) :
تدعم منصة العرب في بريطانيا استخدام التكنولوجيا والذكاء الاصطناعي لتسريع معالجة طلبات اللجوء، لكن لا يمكن أن تحل هذه الأدوات محل التدقيق البشري في قضايا حياتية مصيرية. الأخطاء التي ظهرت خلال تجربة أداة تلخيص قضايا اللجوء تطرح تساؤلات جدية حول مدى دقة هذه التكنولوجيا وأثرها على اللاجئين.
لذلك، نطالب الحكومة بضمان مراجعة الموظفين للنصوص الكاملة وعدم الاعتماد فقط على ملخصات الذكاء الاصطناعي، مع ضرورة الشفافية في الكشف عن تقييمات الأثر على حقوق اللاجئين. كما نؤكد على أهمية دعم العاملين في هذا القطاع لتقديم قرارات عادلة وسريعة دون التضحية بحقوق الإنسان.
في ظل هذه التحديات، نطرح سؤالاً مهمًا:
هل تعتقد أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة في قضايا اللجوء أم أن القرارات يجب أن تبقى بيد البشر فقط؟
شاركنا رأيك.
المصدر : i news
إقرأ أيضًا :
- بدء تنفيذ خطة “واحد مقابل واحد” بين بريطانيا وفرنسا لترحيل طالبي اللجوء
- هل تضحي بريطانيا بخصوصية المواطنين من أجل اتفاقية الذكاء الاصطناعي الجديدة؟
- الحكومة البريطانية تتعهد بحسم طلبات اللجوء خلال أسابيع بدلًا من سنوات.. كيف ذلك؟
الرابط المختصر هنا ⬇