في اكتشاف يسلط ضوءًا تحذيريًا على الاعتماد المتزايد على الذكاء الاصطناعي في الاستشارات الصحية، كشفت دراسة حديثة عن ثغرة مقلقة في نماذج اللغات الكبيرة (LLMs) مثل ChatGPT، مؤكدة أن خطأً إملائيًا واحدًا وبسيطًا قد يغير تمامًا التشخيص الطبي الذي تقدمه، مما يهدد سلامة المستخدمين.
وقد أظهرت الدراسة، التي أجراها باحثون في مجال تقاطع التكنولوجيا مع الرعاية الصحية، أن هذه الأنظمة المتطورة، رغم قدراتها الفائقة، تفتقر إلى الفهم السياقي الذي يتمتع به الأطباء البشريون للتعامل مع الأخطاء البشرية الشائعة.
تفاصيل التجربة ونتائجها المقلقة
اعتمدت منهجية البحث على تقديم استعلامات وسيناريوهات طبية متطابقة لنماذج الذكاء الاصطناعي الرائدة. تم إدخال كل استعلام مرتين: مرة بصيغة إملائية صحيحة تمامًا، ومرة أخرى مع إحداث خطأ إملائي متعمد في مصطلح طبي أساسي، كأن يتم تغيير حرف واحد فقط.
وكانت النتائج مثيرة للقلق؛ ففي نسبة كبيرة من الحالات، أدى الخطأ الإملائي إلى تغيير جذري في مخرجات الذكاء الاصطناعي.
على سبيل المثال، استعلام عن أعراض قد يشير إلى حالة بسيطة عند كتابته بشكل صحيح، تحول إلى توصية بالبحث عن علاج لحالة أكثر خطورة عند وجود الخطأ الإملائي، والعكس صحيح، مما قد يسبب إما حالة من الذعر غير المبرر أو شعورًا زائفًا بالأمان يتسبب في إهمال حالة طبية طارئة.
الذكاء الاصطناعي لا "يفهم" بل "يطابق الأنماط"
يفسر الخبراء هذه الظاهرة بأن الذكاء الاصطناعي لا "يفهم" القصد وراء الكلمات كما يفعل البشر. فعندما يقرأ الطبيب مصطلحًا طبيًا به خطأ إملائي، فإنه يستخدم خبرته وسياق الحديث لفهم الكلمة المقصودة.
في المقابل، يتعامل النموذج اللغوي مع الكلمة المكتوبة بشكل خاطئ كبيانات مختلفة تمامًا، مما يدفعه إلى استدعاء أنماط وارتباطات إحصائية مختلفة من بياناته التدريبية الهائلة، لينتهي به الأمر إلى نتيجة مختلفة كليًا.
توصيات عاجلة بضرورة الإشراف البشري
تؤكد نتائج هذه الدراسة على أن نماذج الذكاء الاصطناعي، في شكلها الحالي، يجب أن تُعامل كأداة مساعدة للمختصين وليس كبديل لهم.
ويحذر الباحثون والمجتمع الطبي من مخاطر الاعتماد على هذه التطبيقات في التشخيص الذاتي، مشددين على أن الكلمة الفصل في أي شأن طبي يجب أن تكون دائمًا للطبيب البشري المؤهل.
وفيما يمثل الذكاء الاصطناعي وعدًا هائلاً بإحداث ثورة في كفاءة الرعاية الصحية، فإن هذه الدراسة تضع تذكيرًا حاسمًا بأن سلامة المرضى يجب أن تظل الأولوية القصوى، وأن الثقة العمياء في التكنولوجيا دون إدراك قيودها قد تكون لها عواقب وخيمة.