أعلنت OpenAI عن قيود جديدة على كيفية تفاعل ChatGPT مع المستخدمين الذين يشتبه في أنهم تحت سن 18 عاما، وذلك بعد الإجراءات القانونية التي اتخذتها عائلة مراهق انتحر في شهر أبريل الماضي بعد أشهر من التفاعل مع الروبوت.
ووفقا للخطط الجديدة، ستقتصر ردود ChatGPT على المستخدمين الذين لا يمرون بتقنية تقدير العمر الخاصة بالشركة أو لا يقدمون هوية موثوقة.
وقال الرئيس التنفيذي لشركة OpenAI، سام ألتمان، في منشور له يوم الثلاثاء: “نحن نضع أولوية السلامة فوق الخصوصية والحرية للمراهقين”، مؤكدا أن “القصر بحاجة إلى حماية كبيرة”، وأوضح أن ردود ChatGPT يجب أن تكون مختلفة عند التفاعل مع مراهق يبلغ 15 عاما مقارنة بمستخدم بالغ.
نظام تقدير العمر
تخطط OpenAI لتطوير نظام تقدير العمر، الذي يعتمد على كيفية استخدام الأشخاص لـ ChatGPT، وفي حال وجود شكوك حول عمر المستخدم، سيتم فرض تجربة المراهقين تحت سن 18.
كما ذكر ألتمان أنه قد يطلب من بعض المستخدمين في بعض الحالات أو البلدان تقديم هوية للتحقق من عمرهم.
وقال ألتمان: “نعلم أن هذا يشكل انتهاكا للخصوصية بالنسبة للبالغين، لكننا نعتقد أنه توازن مناسب”.
وأضاف ألتمان أن ردود ChatGPT على الحسابات التي يعرف أنها لمستخدمين تحت سن 18 ستتغير، سيتم حظر المحتوى الجنسي الصريح، وسيتم تدريب النظام على عدم التفاعل في مواضيع مثل الانتحار أو الأذى الذاتي، حتى في بيئات الكتابة الإبداعية.
إذا تم رصد أفكار انتحارية لدى مستخدم دون 18 عاما، ستسعى الشركة للتواصل مع والدي المستخدم، وإذا تعذر ذلك، سيتم الاتصال بالسلطات في حال كان هناك خطر وشيك.
وقال ألتمان: “هذه قرارات صعبة، ولكن بعد التشاور مع الخبراء، نعتقد أن هذا هو الخيار الأفضل ونريد أن نكون شفافين في نوايانا”.
في أغسطس الماضي، اعترفت OpenAI أن أنظمتها قد تكون غير كافية وأنها ستقوم بتركيب حواجز حماية أقوى حول المحتوى الحساس، بعد أن رفعت عائلة المراهق آدم راين، البالغ من العمر 16 عاما من كاليفورنيا، دعوى ضد الشركة عقب وفاته.
وقال محامي العائلة إن آدم انتحر بعد “أشهر من التشجيع من ChatGPT”، وأن العائلة تدعي أن GPT-4 تم “إطلاقه بسرعة رغم وجود مشاكل أمان واضحة”.
وأظهرت مستندات المحكمة الأمريكية أن ChatGPT قد ساعد آدم في تحديد ما إذا كانت طريقة انتحاره ستنجح، كما عرضت المساعدة في كتابة رسالة انتحار لوالديه.
وقالت OpenAI في وقت سابق إنها تحقق في الدعوى المرفوعة ضدها، وذكرت الشركة في منشور لها بعد الدعوى أن أنظمتها تعمل بشكل أكثر موثوقية في التفاعلات القصيرة، بينما قد تقدم ChatGPT إجابة “تتجاوز حواجز الأمان” في حالة التفاعل المطول على مدى فترة طويلة.
وأعلنت OpenAI أيضا أنها تعمل على تطوير ميزات أمان لضمان أن البيانات التي يتم مشاركتها مع ChatGPT تبقى خاصة حتى من موظفي الشركة.
كما قال ألتمان إن المستخدمين البالغين الذين يرغبون في "التحدث بأسلوب مغازلة" مع ChatGPT سيكون بإمكانهم فعل ذلك، لكنهم لن يستطيعوا طلب تعليمات حول كيفية الانتحار، رغم أنه يمكنهم طلب المساعدة في كتابة قصة خيالية تتضمن الانتحار.
وقال ألتمان: “نعامل البالغين كبالغين” في إشارة إلى مبدأ الشركة.

