هل الذكاء الاصطناعي يهدد سلامة الأطفال؟ حملة بريطانية تحذر من خطة ميتا الجديدة

حذّرت منظمات بريطانية معنية بسلامة الإنترنت من خطط شركة “ميتا” -المالكة لفيسبوك وإنستغرام وواتساب- لتوسيع نطاق اعتمادها على الذكاء الاصطناعي في إجراء تقييمات المخاطر، مشيرة إلى أن هذه الخطوة قد تُضعف قدرة المنصات على حماية المستخدمين، ولا سيما الأطفال، من المحتوى الضار والانتهاكات الرقمية.
وتأتي هذه التحذيرات عقب تقرير أفاد بأن “ميتا” تخطط لأتمتة ما يصل إلى 90 في المئة من عمليات تقييم المخاطر على منصاتها، وهو ما اعتبرته الحملة “تراجعًا خطيرًا” في التزام الشركة بالمعايير المطلوبة بموجب قانون الأمان على الإنترنت في بريطانيا.
الذكاء الاصطناعي.. تهديد لسلامة الأطفال
وفي رسالة موجهة إلى الرئيسة التنفيذية لهيئة تنظيم الاتصالات البريطانية (Ofcom)، ميلاني داوز، أعربت منظمات بارزة مثل مؤسسة “مولي روز”، ومؤسسة (NSPCC)، ومؤسسة (Internet Watch) عن قلقها البالغ، ووصفت الخطوة بأنها “رجعية ومثيرة للقلق”.
وطالبت الرسالة الهيئة بالتصريح العلني بأن تقييمات المخاطر التي تتم كلها أو في غالبها من خلال الأتمتة “لا يمكن اعتبارها مناسبة أو كافية” وفقًا للمعايير المنصوص عليها في قانون الأمان الإلكتروني البريطاني، الذي دخل حيز التنفيذ مؤخرًا.
كما دعت المنظمات (Ofcom) إلى مواجهة أي افتراض بأن المنصات الرقمية يمكنها تخفيف إجراءات تقييم المخاطر أو تجاوز الرقابة البشرية في مسائل تتعلق بسلامة المستخدمين.
وردًّا على الرسالة، قال متحدث باسم (Ofcom): “لقد أوضحنا منذ البداية أن الخدمات مطالبة بإبلاغنا بمن أجرى وراجع وأقرّ تقييمات المخاطر. نحن ندرس المخاوف التي وردت في الرسالة، وسنرد في الوقت المناسب”.
هذا ويُلزم قانون الأمان على الإنترنت الشركات الرقمية في بريطانيا بإجراء تقييمات دقيقة للمخاطر المتعلقة بالمحتوى الضار، وبخاصة تلك التي قد تؤثر على الأطفال، إلى جانب تقديم خطط واضحة للحدّ من هذه المخاطر. وتُعَدّ هذه التقييمات من أبرز أدوات التطبيق العملي لهذا القانون.
“ميتا” تدافع عن خططها
من جهتها نفت شركة “ميتا” الاتهامات، معتبرة أن الرسالة “حرّفت نهج الشركة”، وأكدت أنها لا تستخدم الذكاء الاصطناعي لاتخاذ قرارات بشأن تقييم المخاطر مباشرة.
وقال متحدث باسم الشركة: “طوّر خبراؤنا أداة تقنية تساعد الفرق على تحديد الحالات التي تنطبق فيها المتطلبات القانونية والسياسات على منتجات محددة. نستخدم التكنولوجيا تحت إشراف بشري لتعزيز قدرتنا على التعامل مع المحتوى الضار، وقد ساهمت هذه الأدوات كثيرًا في تحسين نتائج السلامة”.
وكانت شبكة (NPR) الأمريكية قد كشفت الشهر الماضي أن “ميتا” تعتزم استخدام الذكاء الاصطناعي للموافقة على تحديثات الخوارزميات والميزات الأمنية، دون مراجعة بشرية كاملة. ونقلت الشبكة عن مسؤول سابق في “ميتا” -طلب عدم ذكر اسمه- أن هذا التغيير سيسمح بإطلاق التحديثات بسرعة أكبر، لكنه سيزيد من “مستوى المخاطر” على المستخدمين.
وأشار التقرير أيضًا إلى أن “ميتا” تدرس أتمتة مراجعاتها في مجالات شديدة الحساسية، مثل تتبّع المحتوى الذي يُعرّض الأطفال للخطر، ورصد الأخبار الكاذبة والمضللة.
رأي منصة العرب في بريطانيا
نرى في منصة العرب في بريطانيا (AUK) أن أي توجه لتقليص الدور البشري في مراقبة المحتوى الرقمي وتقييم المخاطر يُعَدّ انحرافًا خطيرًا عن معايير السلامة، ولا سيما في ظل ازدياد الانتهاكات الرقمية التي يتعرض لها الأطفال والمراهقون على المنصات الكبرى.
ونرى أيضًا أن حماية الفئات الضعيفة، وفي مقدمتها الأطفال، يجب أن تبقى مسؤولية بشرية مباشرة لا يمكن استبدالها بالخوارزميات وحدها، مهما بلغ تطورها. وننبّه إلى أهمية الرقابة المستقلة والشفافة على سياسات شركات التكنولوجيا الكبرى.
وننصح أولياء الأمور في بريطانيا بالخطوات الآتية للحفاظ على سلامة أطفالهم في البيئة الرقمية:
• متابعة إعدادات الخصوصية والتحكم في تطبيقات التواصل الاجتماعي.
• التحدث الدائم مع الأبناء حول السلوك الآمن على الإنترنت.
• الإبلاغ الفوري عن أي محتوى مسيء أو غير لائق.
• استخدام أدوات موثوقة لرصد استخدام الأجهزة الذكية.
ونؤكد أن حماية الأطفال مسؤولية جماعية تبدأ من المنزل، وتستمر عبر المؤسسات التعليمية، وتستدعي التزامًا واضحًا من الشركات والحكومات على حد سواء.
المصدر: الغارديان
اقرأ أيضًا:
الرابط المختصر هنا ⬇