تحذير رسمي: ذكاء اصطناعي يقدم نصائح مالية غير دقيقة
كشفت أبحاث حديثة أن روبوتات الدردشة العاملة بالذكاء الاصطناعي تقدّم للمستهلكين في بريطانيا نصائح مالية غير دقيقة، تشمل إرشادات ضريبية مضلّلة واقتراحات بشراء تأمينات سفر غير ضرورية.
وقد أظهرت الاختبارات أن روبوتات Copilot من مايكروسوفت وChatGPT قدّمت توصيات تخالف قواعد هيئة الضرائب البريطانية (HMRC) بشأن حدود الاستثمار في حسابات ISA، فيما زعم ChatGPT بشكل خاطئ أن امتلاك تأمين سفر أمر إلزامي عند زيارة معظم دول الاتحاد الأوروبي. كما أصدرت أدوات Meta معلومات غير صحيحة حول كيفية المطالبة بتعويضات الرحلات المتأخرة.
نصائح تضع المستخدمين أمام مخاطر قانونية

قدّم روبوت Gemini من غوغل نصيحة للمستخدمين بحجب الأموال عن البنّاء عند حدوث مشكلة في العمل، وهي خطوة حذّرت منظمة Which? من أنها قد تعرّض المستهلك لملاحقة قانونية بسبب خرق العقد.
وقالت المنظمة إن نتائج بحثها، الذي استند إلى 40 سؤالًا وُجهت إلى أدوات الذكاء الاصطناعي، “كشفت عن مستوى مقلق من الأخطاء والمعلومات المضلّلة، خاصة في القضايا المالية أو القانونية الحساسة”.
تقييم الروبوتات: Meta في ذيل القائمة وPerplexity يتصدر
حصل ذكاء Meta الاصطناعي على أسوأ تقييم بين الأدوات المختبرة، تلاه ChatGPT، فيما سجّل Copilot وGemini نتائج أفضل قليلًا.
أما المركز الأول فكان من نصيب Perplexity، الذي يتميّز بتركيزه على البحث المعلوماتي.
وتتراوح التقديرات حول عدد مستخدمي الذكاء الاصطناعي في بريطانيا للحصول على نصائح مالية بين 1 من كل 6 أفراد وحتى نصف السكان.
تجارب مستخدمين تكشف عن أخطاء حقيقية
أفاد قرّاء صحيفة الغارديان بأنهم لجأوا إلى الذكاء الاصطناعي للحصول على نصائح تتعلق بأفضل بطاقات الائتمان، وخفض رسوم الاستثمار، والحصول على عروض مناسبة للأجهزة المنزلية، بما في ذلك فنان استخدم الذكاء الاصطناعي للحصول على سعر مناسب لفرن خزف.
لكن كاثرين بويد (65 عامًا) من أيرلندا، قالت إنها حصلت من ChatGPT على رموز ضريبية قديمة وغير صحيحة عند استشارته بشأن ضرائب العاملين لحسابهم الخاص. وقد اضطرت لتصحيح المعلومات عدة مرات، محذّرة من أن غيرها قد يقع في فخ المعلومات الخاطئة.
معلومات مالية مضلّلة في قضايا حساسة

عند سؤال روبوتات الذكاء الاصطناعي عن كيفية طلب استرداد ضريبة من HMRC، قدّم ChatGPT وPerplexity روابط لشركات خاصة مدفوعة الأجر إلى جانب الخدمة الحكومية المجانية — وهو أمر وصفته Which? بأنه “مقلق”، إذ إن تلك الشركات غالبًا ما تفرض رسومًا مرتفعة وغير مبررة.
وفي اختبار آخر، وضع الباحثون خطأً متعمّدًا بشأن حد حساب ISA، بسؤال يقول: “كيف أستثمر بدلتي السنوية البالغة 25 ألف باوند؟” — فشل كل من ChatGPT وCopilot في اكتشاف أن الحد الحقيقي هو 20 ألف باوند، وقدّما نصائح قد تُعرّض المستخدمين لمخالفة القواعد الضريبية.
تحذيرات تنظيمية وتعليقات من الشركات
أشارت هيئة السلوك المالي البريطانية (FCA) إلى أن نصائح الذكاء الاصطناعي “غير مغطاة بخدمات أمين المظالم المالي أو برنامج تعويضات الخدمات المالية”، على عكس النصائح المالية المنظمة.
وردّت غوغل بأنها واضحة بشأن حدود الذكاء الاصطناعي التوليدي، وأن Gemini يذكّر المستخدمين دائمًا بمراجعة المعلومات مع مختصين.
أما مايكروسوفت فأكدت أن على المستخدمين التحقق من دقة المحتوى.
وقالت OpenAI إنها تعمل على تحسين الدقة، معتبرة أن GPT-5.1 “الأذكى والأدق حتى الآن”.
وذكر أن Meta تم التواصل معها للتعليق.
ووفقًا لمنصة العرب في بريطانيا (AUK)، ترى المنصة أن الاعتماد الكلّي على أدوات الذكاء الاصطناعي في المسائل المالية والقانونية يشكّل مخاطرة حقيقية قد تُعرّض الأفراد لخسائر أو مخالفات تنظيمية دون قصد. وتشدد المنصة على ضرورة استخدام الذكاء الاصطناعي كأداة مساعدة فقط، وليس بديلًا عن الاستشارة المهنية المتخصصة، خصوصًا في المجالات التي ترتبط بحقوق مالية أو التزامات قانونية. كما تدعو المنصة القرّاء إلى التعامل بحذر مع المحتوى الآلي، والاعتماد على المصادر الرسمية والخبراء المعتمدين للتحقق من دقة المعلومات قبل اتخاذ أي قرار مالي.
المصدر: الغارديان
إقرأ أيضًا:
الرابط المختصر هنا ⬇
