بريطانيا تفتح تحقيقًا رسميًا مع منصة إكس وإيلون ماسك بسبب “التزييف العميق”
فتحت هيئة مفوض المعلومات في بريطانيا (ICO) تحقيقات رسمية مع شركتي إيلون ماسك، إكس و (xAI)؛ للتأكد من مدى التزامهما بقوانين حماية البيانات، بعد ورود تقارير تفيد باستخدام أداة (Grok) للذكاء الاصطناعي في توليد صور جنسية دون موافقة الأشخاص المعنيين.
وأشارت الهيئة إلى أن هذه التقارير أثارت “مخاوف جدية” بموجب قوانين حماية البيانات في بريطانيا، موضحة أنه من غير الواضح ما إذا كانت “الضمانات الملائمة قد أُدرجت في تصميم أداة (Grok) وطرق نشرها”.
هيئة مفوض المعلومات تحذر من أضرار فقدان السيطرة على البيانات

وفي تصريح له، قال ويليام مالكولم، المدير التنفيذي لمخاطر التنظيم والابتكار في هيئة مفوض المعلومات: “التقارير المتعلقة بـ(Grok) تطرح أسئلة مقلقة عن كيفية استخدام بيانات الأشخاص الشخصية لتوليد صور حميمة أو جنسية دون علمهم أو موافقتهم، وما إذا كانت هناك ضوابط كافية لمنع ذلك. ففقدان السيطرة على البيانات الشخصية بهذه الطريقة قد يؤدي إلى أضرار فورية وكبيرة، ولا سيما عندما يكون الأطفال متورطين”.
وفي المقابل، أوضحت هيئة (Ofcom) في بيان منفصل أنها لا تحقق حاليًّا مع شركة (xAI)، المزودة لتطبيق (Grok) المستقل، فيما لا يزال تحقيقها مع إكس، الشبكة الاجتماعية التي كانت تعرف سابقًا بتويتر والتي يمكن للمستخدمين التفاعل عبرها مع (Grok)، في مرحلة جمع الأدلة، محذرة من أن التحقيق قد يستغرق عدة أشهر.
ونبهت الهيئة على أن الشركة اتخذت خطوات لحل المشكلة، مشيرة إلى ضرورة منحها “فرصة كاملة لتقديم ملاحظاتها”.
Ofcom توضح قيود التحقيق مع تطبيق Grok المستقل

وعن سبب عدم التحقيق مع (xAI)، قالت (Ofcom): “عندما بدأنا التحقيق مع إكس، أشرنا إلى أننا نقيم إمكانية التحقيق أيضًا مع (xAI) باعتبارها مزود خدمة (Grok) المستقلة. ونواصل مطالبتها بتقديم إجابات عن المخاطر التي قد تشكلها. كما ندرس فتح تحقيق؛ للتأكد من التزامها بالقواعد التي تلزم الخدمات التي تنشر محتوى إباحيًّا باستخدام فحوص عمرية فعّالة لمنع وصول الأطفال إلى هذا المحتوى. وبسبب الطريقة التي يرتبط بها القانون بالروبوتات الدردشة (Chatbots)، كما أوضحنا أعلاه، لا يمكننا حاليًّا التحقيق في إنشاء الصور غير القانونية بواسطة خدمة (Grok) المستقلة في هذه الحالة”.
جدير بالذكر أن الحفاظ على خصوصية المستخدمين وحماية بياناتهم الشخصية يمثل محورًا أساسيًّا عند التعامل مع أدوات الذكاء الاصطناعي، ولا سيما تلك القادرة على إنتاج محتوى حساس أو جنسي. استخدام ضوابط صارمة وإجراءات وقائية يمكن أن يقلل من مخاطر إساءة الاستخدام، في حين تبقى المسؤولية على الجهات التنظيمية لضمان تطبيق هذه الضوابط بفعالية. ومن المفيد توعية المستخدمين بالمخاطر المحتملة للتزييف العميق وأدوات الذكاء الاصطناعي؛ للحفاظ على سلامة الأطفال خصوصًا والمجتمع عمومًا.
المصدر : الجارديان
إقرأ أيضًا :
الرابط المختصر هنا ⬇
