أصدرت منظمة "كومن سينس ميديا" (Common Sense Media) غير الربحية، والمتخصصة في سلامة الأطفال، تقييمًا أمنيًا مثيرًا للقلق لمنتجات الذكاء الاصطناعي "Gemini" من جوجل، حيث صنفت النسخ المخصصة للأطفال والمراهقين بأنها "عالية الخطورة".
ورغم أن التقرير أشار إلى أن "Gemini" يوضح للأطفال أنه مجرد كمبيوتر وليس صديقًا - وهو أمر إيجابي يساعد في تجنب التفكير الوهمي - إلا أنه انتقد بشدة النهج الذي تتبعه جوجل في تصميم منتجاتها الموجهة للشباب.
نسخة للبالغين مع بعض فلاتر الأمان.. وليست للأطفال
يكمن النقد الأساسي للمنظمة في أن النسخ المخصصة للأطفال تحت 13 عامًا والمراهقين من "Gemini" تبدو في جوهرها مجرد نسخ للبالغين تم إضافة بعض فلاتر الأمان إليها، بدلاً من أن تكون مصممة خصيصًا مع مراعاة سلامة الأطفال من الألف إلى الياء.
ووجد التحليل أن "Gemini" لا يزال بإمكانه مشاركة مواد "غير لائقة وغير آمنة" مع الأطفال، بما في ذلك معلومات تتعلق بالجنس والمخدرات والكحول، بالإضافة إلى نصائح غير آمنة تتعلق بالصحة العقلية.
ويعتبر هذا الأمر مقلقًا بشكل خاص، حيث ورد أن الذكاء الاصطناعي لعب دورًا في بعض حالات انتحار المراهقين في الأشهر الأخيرة، وتواجه شركات مثل OpenAI و Character.AI بالفعل دعاوى قضائية بهذا الشأن.
علاقة آبل المحتملة تزيد من المخاطر
يزداد القلق مع تسرب أنباء عن أن آبل تفكر في استخدام ذكاء Gemini لتشغيل الجيل القادم من مساعدها الصوتي "سيري". وقد يؤدي هذا إلى تعريض المزيد من المراهقين لهذه المخاطر، ما لم تقم آبل بتخفيف مخاوف السلامة بطريقة ما.
رد جوجل ومقارنة مع المنافسين
من جانبها، عارضت جوجل التقييم، مشيرة إلى أن لديها سياسات وضمانات محددة للمستخدمين تحت سن 18 عامًا، وأنها تعمل باستمرار على تحسين وسائل الحماية. لكنها اعترفت أيضًا بأن بعض استجابات "Gemini" "لم تكن تعمل على النحو المنشود"، وأنها أضافت ضمانات إضافية لمعالجة هذه المخاوات.
وللمقارنة، قامت "كومن سينس ميديا" بتقييم خدمات ذكاء اصطناعي أخرى، حيث صنفت Meta AI و Character.AI بأنهما "غير مقبولين" (أي أن الخطر شديد)، بينما حصل ChatGPT على تصنيف "متوسط"، وحصل Claude على تصنيف "مخاطر ضئيلة"، وهذا يضع تصنيف "Gemini" كـ"عالي الخطورة" في سياق مقلق بالنسبة لجوجل.