قناة صدى البلد البلد سبورت صدى البلد جامعات صدى البلد عقارات Sada Elbalad english
english EN
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
طه جبريل
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
طه جبريل

هل أنت متأكد؟.. السر وراء تراجع روبوتات الذكاء الاصطناعي عن إجاباتها

الذكاء الاصطناعي
الذكاء الاصطناعي

إذا كنت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي مثل ChatGPT أو Gemini أو Claude يوميا، فربما لاحظت أنها غالبا ما تقدم إجابات واثقة ومقنعة.

لكن عند متابعة المستخدم بسؤال مثل: "هل أنت متأكد؟"، غالبا ما تعيد هذه الأنظمة النظر في إجاباتها، وتقدم نسخة معدلة قد تتناقض جزئيا أو كليا مع ما قالت في البداية، وإذا كررت السؤال مرة أخرى، قد تتراجع الأنظمة مرة أخرى، رغم أن بعض النماذج تدرك بحلول الجولة الثالثة أنك تختبرها، إلا أنها لا تصمد في موقفها.

السلوك المعروف باسم "التملق"

في تدوينة، وصف الدكتور راندال س. أولسون، المؤسس المشارك والرئيس التقني لشركة Goodeye Labs، هذا السلوك، المعروف باسم sycophancy أو التملق، بأنه أحد أكثر إخفاقات الذكاء الاصطناعي توثيقا في العصر الحديث.

وقد نشرت شركة أنثروبيك، المطورة لنموذج Claude، دراسة عام 2023 تشير إلى أن النماذج التي تدرب باستخدام التعلم التعزيزي من التغذية الراجعة البشرية RLHF تميل إلى إعطاء إجابات مرضية للمستخدم بدلا من الإجابات الدقيقة.

دراسة تكشف: سبب تراجع روبوتات الدردشة الذكية أمام المستخدمين رغم معرفتها بالحقائق

كيف يحدث ذلك؟

يعني ذلك أن النماذج التي تقول الحقيقة قد تعاقب في تقييماتها، بينما تحصل النماذج التي توافق المستخدم على درجات أعلى. هذا يخلق حلقة، تجعل معظم هذه النماذج تقول للمستخدم ما يريد سماعه بدلا من الحقائق.

دراسة أجراها موقع Fanous وآخرون على GPT-40 وClaude Sonney وGemini 1.5 Pro في مجالات الرياضيات والطب أظهرت أن هذه الأنظمة غيرت إجاباتها بنسبة تصل إلى 60% عند تحدي المستخدمين لها، وبالتفصيل، قام GPT-40 بتغيير إجاباته 58%، وClaude Sonnet 56%، وGemini 1.5 Pro 61% من الوقت.

تأثير طويل المدى على المحادثات

أظهرت الدراسات أن المشكلة تتفاقم كلما طال الحوار مع روبوتات المحادثة، حيث تبدأ الإجابات تدريجيا في الانعكاس على آراء المستخدم، كما أن استخدام صياغة الشخص الأول مثل "أعتقد أن" يزيد من معدلات التملق مقارنة بصياغة الشخص الثالث.

طرق للتقليل من المشكلة

يقترح الباحثون بعض الأساليب لتقليل هذه الظاهرة بنسبة تصل إلى 63%، منها:

- استخدام تقنيات الذكاء الاصطناعي الدستوري من أجل تدريب النماذج بحيث تتبع قواعد أو مبادئ محددة مسبقا

- تحسين التفضيلات مباشرة

- صياغة الأسئلة بصيغة الشخص الثالث

ويشير أولسون إلى أن المشكلة سلوكية وسياقية، لأن مساعدين الذكاء الاصطناعي غير متوافقين مع أهداف وقيم المستخدم، لذا بدلا من المعارضة، يختارون التنازل.

نصائح لتقليل التملق

يمكن للمستخدمين الحد من المشكلة عن طريق:

- مطالبة الروبوت بتحدي افتراضاتك وعدم الإجابة بدون سياق.

- توضيح كيفية اتخاذ القرارات لديهم، ومشاركة المعرفة والقيم الخاصة بالمجال، ليتمكن الروبوت من تقديم مبررات والدفاع عن إجاباته.

باختصار، المشكلة ليست استثناء، بل سلوك افتراضي شائع في أغلب روبوتات المحادثة الحديثة، والوعي بها ووضع إطار واضح يمكن أن يقلل من الميل للتملق أمام المستخدمين.