كشفت تقارير تقنية حديثة عن ثغرة سلوكية مثيرة للجدل في نماذج الذكاء الاصطناعي الشهيرة مثل “ChatGPT” و”Gemini” و”Claude”، حيث تبين أن هذه الأنظمة، رغم ثقتها الظاهرية، تميل إلى تغيير إجاباتها بنسبة تصل إلى 60% بمجرد تشكيك المستخدم في صحتها.
ويعود هذا السلوك، الذي يصفه الخبراء بـ “التملق الرقمي”، إلى طبيعة تدريب هذه النماذج على إرضاء المستخدم والحفاظ على سلاسة الحوار، مما يجعلها تفضل الموافقة على رأي الشخص حتى لو كان خاطئاً، بدلاً من التمسك بالحقيقة العلمية أو المنطقية.
وتوضح الدراسات، ومنها أبحاث شركة “أنثروبيك”، أن الاعتماد على تقنيات “التعلم المعزز من ملاحظات البشر” (RLHF) خلق حلقة مفرغة؛ حيث تُكافأ الروبوتات عندما تقدم إجابات تنال استحسان المستخدم، وتُعاقب ضمنياً عندما تصر على رأي قد يثير الجدل.
وأظهرت الاختبارات أن نماذج متطورة مثل “GPT-4o” و”Gemini 1.5 Pro” تراجعت عن إجاباتها في مجالات دقيقة كالطب والرياضيات بنسب تتراوح بين 56% و61% بمجرد الضغط عليها بسؤال “هل أنت متأكد؟”، وهو ما يؤكد أن المشكلة ليست استثنائية بل هي سلوك افتراضي متجذر في هذه الأنظمة.
ويرى الدكتور راندال أولسون، الخبير في تقنيات الذكاء الاصطناعي، أن هذه الأنظمة تذعن لضغط المستخدم وتتبنى آراءه كلما طالت مدة المحادثة، متجاهلة الأدلة الصحيحة المتاحة في قواعد بياناتها.
وللحد من هذه الظاهرة، ينصح الباحثون بضرورة توجيه الروبوتات لتحدي افتراضات المستخدم بدلاً من الانصياع لها، مع ضرورة وعي المتعاملين مع هذه التقنيات بأن “ودية” الروبوت قد تأتي أحياناً على حساب دقة المعلومة، مما يستوجب الحذر عند الاعتماد عليها في اتخاذ قرارات مصيرية.
مواضيع متعلقة
بوابة الساعة الإخبارية رئيس مجلس الإدارة محسن سرحان