كشف بحث دولي مشترك أن تطبيقات الذكاء الاصطناعي الرائدة تُحرّف أو تُخطئ في نحو نصف ردودها على الأسئلة المتعلقة بالأخبار.
وشمل البحث الدولي، تحليل 3 آلاف رد قدّمها عدد من المساعدين الذكيين، مثل تشات جي بي تي وكوبايلوت وجيميناي وبربليكستي، عبر 14 لغة مختلفة. وجرى تقييم هذه النماذج من حيث دقة المعلومات والمصادر، إضافة إلى قدرتها على التمييز بين الرأي والحقيقة.
وأظهرت النتائج أن 45% من الردود التي تم تحليلها احتوت على مشكلة رئيسية واحدة على الأقل، بينما تضمّنت 81% منها نوعًا من الأخطاء أو الإشكالات. كما تبيّن أن ثلث الإجابات تقريبا شابتها أخطاء جسيمة في توثيق المصادر، مثل الإسناد الناقص أو المضلل أو غير الصحيح.
وأوضحت الدراسة أن مساعد الذكاء الاصطناعي “جيميناي” التابع لشركة غوغل، سجّل النسبة الأعلى من المشكلات المتعلقة بالمصادر، إذ وُجدت مشكلات كبيرة في نحو 72% من ردوده، مقارنةً بأقل من 25% لدى المساعدين الآخرين.
يُذكر أن شركتَي أوبن إيه آي ومايكروسوفت كانتا قد أكدتا في وقت سابق سعيهما إلى معالجة ظاهرة ما يُعرف بـ«الهلوسة» في نماذج الذكاء الاصطناعي، وهي الحالة التي تنتج فيها النماذج معلومات غير دقيقة أو مضللة بسبب محدودية البيانات أو ضعف السياق





