إذا كنت تستخدم روبوتات الدردشة المدعومة بالذكاء الاصطناعي يوميًا، مثل "تشات جي بي تي" أو "جيميناي" أو "كلود"، فربما لاحظت أنها تقدّم إجابات واثقة ومصاغة بعناية.
لكن ما إن تسألها: "هل أنت متأكدة؟" حتى تبدأ بالتراجع، أو تُعيد صياغة ردّها، وأحيانًا تُناقض نفسها جزئيًا أو كليًا.
وإذا كرّرت السؤال مرة ثالثة، فقد تُغيّر موقفها مجددًا، حتى لو كانت إجابتها الأولى صحيحة. هذا السلوك ليس عشوائيًا، بل يرتبط بآلية عمل هذه النماذج وطريقة تدريبها، بحسب تقرير لصحيفة "إنديان إكسبرس".
التملق: أحد أبرز إخفاقات الذكاء الاصطناعي
في منشور تقني، وصف الدكتور راندال س. أولسون المؤسس المشارك والمدير التقني لشركة "Goodeye Labs"، هذه الظاهرة بأنها شكل من أشكال "التملق" (Sycophancy)، وهو أحد أكثر أنماط الفشل توثيقًا في أنظمة الذكاء الاصطناعي الحديثة.
وتحدثت شركة "أنثروبيك"، المطوّرة لنموذج "كلود"، في ورقة بحثية عام 2023 عن هذه المشكلة، مشيرة إلى أن النماذج المدرَّبة على ملاحظات المستخدمين تميل إلى تفضيل الإجابات "المُرضية" على الإجابات الدقيقة.
وتعتمد روبوتات الدردشة الحديثة على تقنية تُعرف باسم "التعلم المعزز من ملاحظات البشر" (RLHF)، وهذه التقنية هي ما يجعل المحادثة أكثر سلاسة وأقل حدّة أو جدلًا، لكنها في الوقت نفسه تدفع النموذج إلى تفضيل التوافق مع المستخدم.
وهذا يعني أن نماذج الذكاء الاصطناعي التي تقول الحقيقة تُعاقب، بينما تحصل تلك التي تتفق مع المستخدم على درجات أعلى. وهذا يخلق حلقة مفرغة، ولهذا السبب غالبًا ما تُخبر معظم النماذج المستخدمين بما يرغبون في سماعه.
أرقام صادمة: تغيير الإجابات هو السلوك الافتراضي
في دراسة بحثية اختبرت نماذج مثل GPT-4o من شركة OpenAI، وClaude Sonnet، وGemini 1.5 Pro في مجالات الرياضيات والطب، تبيّن أن هذه الأنظمة غيّرت إجاباتها في نحو 60% من الحالات عند التشكيك فيها.
وجاءت نسب التراجع على النحو التالي تقريبًا:
- GPT-4o: 58%
- Claude Sonnet: 56%
- Gemini 1.5 Pro: 61%
ما يعني أن تغيير الإجابة ليس استثناءً، بل سلوكًا شائعًا في النماذج التي يستخدمها ملايين الأشخاص يوميًا.
عندما يصبح التملق مشكلة علنية
في أبريل/ نيسان من العام الماضي، واجهت "أوبن إيه آي" أزمة بعد تحديث لنموذج "GPT-40" جعل روبوت الدردشة مفرطًا في التملق والموافقة، إلى درجة أثّرت في قابليته للاستخدام.
وأقرّ الرئيس التنفيذي للشركة، سام ألتمان بالمشكلة مؤكدًا العمل على إصلاحها.
لكن، وفقًا لأولسون، فإن جوهر المشكلة لم يتغير، إذ تظل النماذج عرضة للانصياع لضغط المستخدم حتى عندما تملك معلومات صحيحة من قواعد بياناتها أو من نتائج البحث.
وتشير الدراسات إلى أن التملق يزداد مع طول المحادثة، فكلما طالت الجلسة، بدأت إجابات النموذج تعكس آراء المستخدم بشكل أكبر.
كما أن استخدام ضمير المتكلم، مثل قول المستخدم "أعتقد أن..." يزيد من احتمالية موافقة النموذج مقارنة بصياغة السؤال بضمير الغائب.
هل من حلول ممكنة؟
يقول الباحثون إن الحد من هذه الظاهرة ممكن جزئيًا عبر:
- تطبيق ما يُعرف بـ"الذكاء الاصطناعي الدستوري".
- تحسين تقنيات التفضيل المباشر.
- توجيه الأسئلة بضمير الغائب بدلًا من المتكلم.
وقد أظهرت بعض التجارب أن هذه الأساليب قد تقلل التملق بنسبة تصل إلى 63% في بعض الحالات.
ماذا يعني ذلك للمستخدمين؟
بحسب أولسون، المشكلة في جوهرها سلوكية وسياقية، فمساعدات الذكاء الاصطناعي لا تفهم أهداف المستخدم وقيمه وآلية اتخاذ قراراته، لذلك تميل إلى الإذعان بدلًا من المجادلة.
وللحد من ذلك، يُنصح المستخدمون بـ:
- مطالبة النموذج بتحدي افتراضاتهم.
- طلب عدم الإجابة دون سياق واضح.
- شرح اتخاذهم للقرارات وإطلاعها على معرفتهم وقيمهم في المجال، حتى يكون لدى هذه النماذج ما تُناقشه وتُدافع عنه.
بهذه الطريقة، يصبح لدى النموذج "أرضية معرفية" يناقشها، بدل أن يكتفي بإرضاء السائل.
في النهاية، قد يبدو سؤال "هل أنت متأكد؟" بسيطًا، لكنه يكشف جانبًا عميقًا من كيفية عمل الذكاء الاصطناعي الحديث، حيث لا يكون الهدف دائمًا قول الحقيقة بقدر ما يكون الحفاظ على رضا المستخدم.