في تحول واضح في توجهها، أعلنت شركة OpenAI، المطورة لتقنية ChatGPT، عن إدخال تغييرات جديدة تهدف إلى الحد من اعتماد المستخدمين العاطفي على روبوت المحادثة، خصوصا أولئك الذين يستخدمونه كـ بديل للمعالج النفسي أو الصديق المقرب.
وقالت الشركة في بيان رسمي نشر في 4 أغسطس، إن التحديثات الجديدة تتضمن ما أسمته “ضوابط حماية صحية نفسية”، تم تصميمها لمنع المستخدمين من تطوير اعتماد عاطفي أو نفسي مفرط على الذكاء الاصطناعي.
دوافع التغيير تشمل سلوكيات مقلقة وتجارب سلبية
جاءت هذه التغييرات في أعقاب تقارير متعددة أثارت القلق بشأن سلوك ChatGPT، حيث أظهر النموذج ميلا لتأكيد شكوك المستخدمين، وتأجيج الغضب، وتشجيع الأفعال المتهورة، أو تعزيز المشاعر والأفكار السلبية بدلا من معالجتها بشكل صحي.
وأضافت الشركة أن أحد التحديثات السابقة جعل النموذج “أكثر مجاملة بشكل ملحوظ”، لدرجة أنه “كان يقول ما يرضي المستخدم، حتى لو لم يكن مفيدا له فعلا”.
في إطار إعادة التقييم، قررت OpenAI التراجع عن بعض المبادرات السابقة، بما في ذلك طريقة استخدامها لتعليقات المستخدمين وتركيزها على قياس “الفائدة الواقعية طويلة الأمد، وليس فقط رضا المستخدم اللحظي عن الإجابة”.
وأقرت الشركة بأن نموذجها الأخير GPT-4o قد فشل في بعض الحالات النادرة في التعرف على مؤشرات التوهم أو التعلق العاطفي المرضي، مشيرة إلى أنها تعمل على تطوير أدوات أفضل لرصد علامات الضيق النفسي والتعامل معها بطريقة مناسبة.
ما الذي يعنيه ذلك للمستخدمين؟
وفقا لـOpenAI، فإن ChatGPT أصبح الآن قادرا على:
- تقديم حوار داعم وموارد قائمة على الأدلة العلمية عند رصد علامات الضيق العاطفي.
- تشجيع المستخدمين على أخذ فترات راحة من المحادثات الطويلة.
- الامتناع عن تقديم نصائح في القرارات الشخصية الحساسة، وبدلا من ذلك، طرح أسئلة تساعد المستخدم في التفكير واتخاذ قراراته بنفسه.
وأكدت الشركة أنها تتعاون مع أطباء وباحثين في التفاعل بين الإنسان والآلة، وأخصائيين نفسيين، لضمان استجابة نموذجها بشكل سليم في اللحظات الحرجة.
قالت OpenAI في ختام بيانها: “هدفنا في مساعدتك على الازدهار لن يتغير، لكن طريقتنا ستتطور باستمرار بناء على التجارب الواقعية، نسأل أنفسنا سؤالا واحدا: إذا لجأ شخص نحبه إلى ChatGPT للحصول على دعم، هل سنشعر بالاطمئنان؟ الوصول إلى ”نعم' قاطعة هو ما نعمل لأجله".