كشف تحقيق أجرته صحيفة الجارديان أن الكثيربن يتعرضون لخطر الأذى بسبب المعلومات الصحية الكاذبة والمضللة في ملخصات الذكاء الاصطناعي من جوجل.
وقالت الشركة إن ملخصات الذكاء الاصطناعي الخاصة بها، والتي تستخدم الذكاء الاصطناعي التوليدي لتقديم لمحات سريعة عن المعلومات الأساسية حول موضوع أو سؤال ما، " مفيدة " و" موثوقة ".
لكن بعض الملخصات التي تظهر في أعلى نتائج البحث قدمت معلومات صحية غير دقيقة وعرضت الناس لخطر الأذى.

في إحدى الحالات التي وصفها الخبراء بأنها "خطيرة للغاية"، نصحت جوجل مرضى سرطان البنكرياس خطأً بتجنب الأطعمة الغنية بالدهون. وأكد الخبراء أن هذا النصح يُخالف تمامًا ما ينبغي التوصية به، وقد يزيد من خطر وفاة المرضى بالمرض.
وفي مثال "مثير للقلق" آخر، قدمت الشركة معلومات زائفة حول اختبارات وظائف الكبد الحاسمة، مما قد يجعل الأشخاص المصابين بأمراض الكبد الخطيرة يعتقدون خطأً أنهم أصحاء.
هاتف يعرض تطبيق ChatGPT
كشفت الأبحاث أن ثلث مواطنين استخدموا الذكاء الاصطناعي للحصول على الدعم العاطفي.
كما أظهرت عمليات البحث على جوجل عن إجابات حول اختبارات سرطان النساء معلومات "خاطئة تمامًا"، وهو ما قال الخبراء إنه قد يؤدي إلى تجاهل الناس للأعراض الحقيقية.
وقال متحدث باسم جوجل إن العديد من الأمثلة الصحية التي تمت مشاركتها معهم كانت "لقطات شاشة غير مكتملة"، ولكن من خلال ما استطاعوا تقييمه، تبين أنها مرتبطة "بمصادر معروفة وذات سمعة طيبة وتوصي بطلب المشورة من الخبراء".
مخاوف متزايدة
يأتي تحقيق صحيفة الجارديان وسط مخاوف متزايدة من أن بيانات الذكاء الاصطناعي قد تُضلل المستهلكين الذين قد يفترضون موثوقيتها. ففي نوفمبر من العام الماضي، كشفت دراسة أن برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي عبر مجموعة من المنصات تُقدم نصائح مالية غير دقيقة ، في حين أُثيرت مخاوف مماثلة بشأن ملخصات الأخبار .
قالت صوفي راندال، مديرة منتدى معلومات المرضى، الذي يروج للمعلومات الصحية القائمة على الأدلة للمرضى والجمهور والمتخصصين في الرعاية الصحية، إن الأمثلة أظهرت أن "نظرة عامة الذكاء الاصطناعي من جوجل يمكن أن تضع معلومات صحية غير دقيقة في أعلى نتائج البحث عبر الإنترنت، مما يشكل خطراً على صحة الناس".
كشفت صحيفة الجارديان عن عدة حالات من المعلومات الصحية غير الدقيقة في نظرة عامة على الذكاء الاصطناعي من جوجل بعد أن أثارت عدد من المجموعات الصحية والجمعيات الخيرية والمهنيين مخاوفهم.
“كنا قلقين أيضاً من حقيقة أن ملخص الذكاء الاصطناعي يتغير عند إجراء نفس البحث، حيث يُظهر استجابة مختلفة في كل مرة مستمدة من مصادر مختلفة. هذا يعني أن المستخدمين يحصلون على إجابة مختلفة حسب وقت البحث، وهذا غير مقبول.”
كما وجدت صحيفة الغارديان أن خدمة "نظرة عامة على الذكاء الاصطناعي من جوجل" تُقدم نتائج مُضللة لعمليات البحث المتعلقة بحالات الصحة النفسية. وقال ستيفن باكلي، رئيس قسم المعلومات في مؤسسة "مايند": "هذا الأمر يُثير قلقنا البالغ كمؤسسة خيرية".
قال باكلي إن بعض ملخصات الذكاء الاصطناعي لحالات مثل الذهان واضطرابات الأكل قدمت "نصائح خطيرة للغاية" وكانت "غير صحيحة أو ضارة أو يمكن أن تدفع الناس إلى تجنب طلب المساعدة".