باتت برامج الدردشة الآلية ملجأ مستخدمي الإنترنت عندما يريدون التحقق من معلومة ما، لكنّ استعانتهم بالذكاء الاصطناعي محفوفة بالأخطاء التي قد يرتكبها، على ما ظهر من النقاشات الحادة التي شهدتها منصة "إكس" بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.
ففي مطلع أغسطس/ آب، عندما نشر النائب الفرنسي عن حزب "فرنسا الأبية" إيمريك كارون المؤيد للقضية الفلسطينية هذه الصورة من دون تعليق على "إكس"، بينما كان قطاع غزة مهددًا بـ"مجاعة معمّمة" وفقًا للأمم المتحدة، سارع كثر من المستخدمين إلى طلب التحقق من مصدرها من "غروك".
وأعطى روبوت الدردشة المدمج في "إكس" جوابًا جازمًا مفاده أن هذه الصورة التُقطت في أكتوبر/ تشرين الأول 2018 في اليمن، وأن الطفلة التي تظهر فيها تُدعى أمل حسين، وتبلغ سبع سنوات. وانتشر جواب "غروك" على نطاق واسع، واتُهم النائب بنشر معلومات مضللة.
"غروك" أعطى جوابًا خاطئًا
ولكن تبيّن أن "غروك" كان مخطئًا. فالصورة التُقطت بالفعل في غزة في 2 أغسطس بعدسة المصوّر الصحافي المتعاون مع وكالة "فرانس برس" عمر القطّاع.
وتُظهر الصورة مريم دوّاس البالغة تسع سنوات، تحملها في مدينة غزة والدتها مدلَّلة التي شرحت للوكالة أن وزنَ ابنتها انخفض من 25 كيلوغرامًا قبل الحرب إلى تسعة كيلوغرامات اليوم. وأضافت أنها لا تتلقى من الدعم الطبي "سوى الحليب، وهو غير متوافر دائمًا، ولا يكفيها للتعافي".
وعندما سُئل "غروك" عن عدم دقة إجابته، ردَّ قائلًا: "أنا لا أنشر أخبارًا كاذبة، بل أعتمد على مصادر موثوق بها". واعترف في النهاية بخطئه، لكنه كرره في اليوم التالي ردًا على أسئلة جديدة من مستخدمي "إكس".
"صناديق سوداء"
ورأى الباحث في أخلاقيات التكنولوجيا ومؤلف كتاب "بونجور تشات جي بي تي" Bonjour ChatGPT لوي دو دييزباك أن خطأ "غروك" يبيّن حدود أدوات الذكاء الاصطناعي، التي تشبه في عملها "الصناديق السوداء".
وإذ أشار الخبير إلى أن "من غير المعروف تحديدًا سبب إعطاء هذه الأدوات هذه الإجابة أو تلك، ولا كيفية ترتيبها مصادرها"، لاحظ أن هذه الأدوات تنطوي على تحيزات مرتبطة ببيانات تدريبها، ولكن أيضًا بتعليمات مصمميها.
ولفت إلى أن لروبوت المحادثة من شركة "إكس إيه آي" الناشئة التابعة لإيلون ماسك، "تحيزات نافرة أكثر تتوافق إلى حد كبير مع الايديولوجية التي يروج لها، من بين أمور أخرى"، وفق تعبيره.
وشرح لوي دو دييزباك أن توجيه سؤال إلى روبوت محادثة عن أصل صورةٍ ما، هو طلب يُخرجه من نطاق مهمته الأساسية. وأضاف: "عادةً، عند البحث عن أصل صورة، قد يقول: +ربما التُقطت هذه الصورة في اليمن، أو ربما التُقطت في غزة، أو ربما التُقطت في أي بلد يعاني من المجاعة". وأوضح الخبير أن "النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف".
ونشرت صحيفة "ليبراسيون" أخيرًا صورة أخرى لوكالة فرانس برس، التقطها عمر القطّاع أيضًا، تُظهر طفلًا يعاني سوء التغذية في غزة. وسبق لـ"غروك" أن أفاد خطأً أيضًا بأن الصورة ملتقطة في اليمن عام 2016، بينما التُقطت الصورة في الواقع في يوليو/ تموز 2025 في غزة.
ودفعَ خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زورًا بالتلاعب.
تحيزات مدفوعة ببيانات التدريب
وترتبط تحيزات الذكاء الاصطناعي ببيانات التدريب التي تُحدد قاعدة معارف النموذج، وفي مرحلة المطابقة التي تُحدد ما سيعتبره النموذج إجابة "جيدة" أو "سيئة".
ويوضح دو دييزباك "إنه إذا شرح المستخدمون للنموذج أن إجابته خاطئة، لا يعني ذلك أنه سيُغيّر إجابته بين ليلة وضحاها، لأن بيانات تدريبه لم تتغير، وكذلك مطابقته".
لكنّ الأخطاء ليست حكرًا على "غروك". فعندما سألت وكالة "فرانس برس" روبوت الدردشة التابع لشركة "ميسترال إيه آي" الناشئة التي تستطيع بصفتها شريكة لوكالة إدراج أخبارها في أجوبة نموذجها، أشارت أداتها هي الأخرى إلى أن الصورة التُقطت في اليمن.
وبحسب لوي دو دييزباك، لا يجوز استخدام روبوتات الدردشة للتحقق من الأخبار والصور، كما في ما يتعلق بمحركات البحث، لأن أدوات الذكاء الاصطناعي التوليدي "ليست مصممة لقول الحقيقة" بل "لإنتاج محتوى، سواء أكان صحيحًا أم خاطئًا".
وخلص الخبير إلى القول: "يجب النظر إليه كصديق مهووس بالأساطير: فهو لا يكذب دائمًا، لكنه قادر على الكذب دائمًا".