أطلقت شركات OpenAI و جوجل وAnthropic خلال أيام قليلة هذا الشهر أدوات متخصصة في الذكاء الاصطناعي الطبي، في خطوة تعكس اشتداد المنافسة على تطوير منصات تشخيصية وتحليلية موجهة لقطاع الرعاية الصحية.
ورغم الخطاب التسويقي الذي يروّج لتحولات عميقة في الطب، فإن أيًا من هذه الأدوات لم يحصل حتى الآن على اعتماد تنظيمي كجهاز طبي، ولا يُسمح باستخدامها بشكل مباشر لتشخيص المرضى.
أدوات طبية جديدة من عمالقة الذكاء الاصطناعي
قدّمت OpenAI في 7 يناير أداة ChatGPT Health في الولايات المتحدة، والتي تتيح للمستخدمين ربط سجلاتهم الصحية عبر شراكات مع منصات مثل b.well وApple Health وFunction وMyFitnessPal.
وفي 13 يناير، كشفت جوجل عن MedGemma 1.5، وهو إصدار موسع من نموذجها الطبي المفتوح يتيح تفسير صور الأشعة ثلاثية الأبعاد من نوع CT وMRI إلى جانب صور علم الأمراض النسيجي (histopathology) كاملة الشريحة.
بدورها أعلنت Anthropic في 11 يناير عن Claude for Healthcare، وهو إصدار مخصص للرعاية الصحية يقدم وصلات متوافقة مع معايير HIPAA إلى قواعد بيانات تغطية التأمين CMS، وأنظمة ترميز ICD‑10، وسجل المزودين الوطني (NPI).
وتستهدف الشركات الثلاث المسارات نفسها في دورة العمل الطبي مثل مراجعات الموافقات المسبقة، ومعالجة المطالبات، وإنتاج المستندات السريرية، مع اختلاف في نماذج الوصول والتسويق.
منصات للمطورين لا أنظمة تشخيصية جاهزة
تقوم الأدوات الثلاث على نماذج لغوية ضخمة متعددة الوسائط، مُدرّبة ومُحسّنة على الأدبيات الطبية وبيانات سريرية متخصصة، مع تشديد واضح على الخصوصية والقيود التنظيمية. وتؤكد الشركات أن هذه الأنظمة تهدف إلى دعم قرارات الأطباء لا استبدال الحكم السريري البشري.
تطرح OpenAI أداة ChatGPT Health كخدمة موجهة للمستخدم النهائي مع قائمة انتظار لشرائح من مشتركي ChatGPT خارج المنطقة الاقتصادية الأوروبية وسويسرا والمملكة المتحدة.
أما MedGemma 1.5 من جوجل فيطرح كنموذج مفتوح ضمن برنامج Health AI Developer Foundations، متاحًا للتنزيل عبر Hugging Face أو النشر عبر منصة Vertex AI على Google Cloud.
في المقابل، تستهدف Anthropic المؤسسات مباشرة؛ إذ يتكامل Claude for Healthcare مع بيئات العمل القائمة من خلال منصة Claude for Enterprise، مركّزًا على العملاء المؤسسيين بدلاً من المستخدمين الأفراد.
وتتفق الشركات الثلاث على تأكيد أن المخرجات ليست مخصصة لتقديم تشخيص مباشر أو قرارات علاجية، وأنها تُستخدم كنقطة انطلاق لابتكار حلول طبية مخصّصة.
أداء قوي على المعايير… لكن بعيد عن غرف العمليات
تُظهر نتائج الاختبارات المعيارية قفزة كبيرة في أداء هذه النماذج الطبية مقارنة بالأجيال السابقة. فوفقًا لجوجل، حقق MedGemma 1.5 دقة بلغت 92.3% في اختبار MedAgentBench من جامعة ستانفورد، مقارنة بـ 69.6% لخط الأساس السابق Sonnet 3.5، كما حسّن أداءه في تصنيف أمراض MRI بمقدار 14 نقطة مئوية، وفي نتائج CT بثلاث نقاط في اختبارات داخلية.
سجّل نموذج Claude Opus 4.5 من Anthropic نسبة 61.3% في اختبارات MedCalc للحسابات الطبية عند تفعيل تنفيذ كود بايثون، و92.3% في MedAgentBench، مع إشارة الشركة إلى تحسينات في تقييمات «الصدق» وتقليل الهلوسة، من دون الكشف عن أرقام تفصيلية.
بالمقابل، لم تنشر OpenAI أرقامًا خاصة بـ ChatGPT Health، لكنها أشارت إلى أن أكثر من 230 مليون شخص حول العالم يطرحون أسبوعيًا أسئلة متعلقة بالصحة والعافية عبر ChatGPT بناءً على تحليل لاستخدامات مجهولة الهوية.
مع ذلك، تشير المادة إلى أن هذه النتائج تبقى مبنية على مجموعات بيانات اختبارية منسقة، ولا تعكس بالضرورة الأداء في بيئات سريرية حقيقية حيث يمكن أن تؤدي الأخطاء إلى عواقب خطرة على المرضى، ما يجعل تحويل هذه الدقة إلى قيمة سريرية عملية أكثر تعقيدًا من مجالات تطبيق أخرى للذكاء الاصطناعي.
ضبابية تنظيمية ومسؤولية قانونية غير محسومة
يبقى المسار التنظيمي لهذه الأدوات غير واضح. ففي الولايات المتحدة، يعتمد خضوع البرمجيات لمراجعة هيئة الغذاء والدواء FDA على «الغرض من الاستخدام»، إذ قد تعامل الأنظمة التي تقدّم توصيات مباشرة عن الوقاية أو التشخيص أو العلاج كأجهزة طبية تتطلب موافقة مسبقة.
حتى الآن، لا تملك أي من الأدوات الجديدة موافقة من FDA، وتلفت المقالة إلى أن تصريحات مسؤولي المؤسسات الصحية، مثل مسؤول التقنية في Banner Health الذي أشاد بتركيز Anthropic على «سلامة الذكاء الاصطناعي»، تعكس اعتبارات اختيار التقنية لكنها لا تعالج بصورة مباشرة مسألة المسؤولية القانونية عند وقوع خطأ أو تأخير في الرعاية بسبب الاعتماد على هذه الأنظمة.
كما تختلف المقاربات التنظيمية بين الأسواق؛ فبينما توفّر لوائح FDA واللائحة الأوروبية للأجهزة الطبية (MDR) أطرًا واضحة نسبيًا لبرمجيات الأجهزة الطبية، ما زالت العديد من الهيئات التنظيمية في منطقة آسيا‑المحيط الهادئ متأخرة في إصدار إرشادات خاصة بأدوات التشخيص المعتمدة على الذكاء الاصطناعي التوليدي.
وتؤدي هذه الضبابية إلى إبطاء تبنّي الأدوات في أسواق قد تكون البنى التحتية الصحية فيها في أمسّ الحاجة إلى حلول رقمية متقدمة.
تركيز على الأعمال الإدارية أكثر من القرارات السريرية
تُظهر حالات الاستخدام الفعلية أن المؤسسات تميل إلى نشر هذه الأنظمة في مساحات إدارية منخفضة المخاطر نسبيًا.
ففي قطاع الأدوية، استخدمت شركة Novo Nordisk نموذج Claude لأتمتة المستندات والمحتوى في مراحل تطوير الأدوية، مع تركيز على الوثائق التنظيمية لا على تشخيص المرضى.
وفي تايوان، استعانت الإدارة الوطنية للتأمين الصحي بـ MedGemma لاستخراج البيانات من 30 ألف تقرير باثولوجي لتحليل السياسات، وليس لاتخاذ قرارات علاجية مباشرة. وتعكس هذه الأنماط ميلًا نحو توظيف الذكاء الاصطناعي في الفوترة، والتوثيق، وصياغة البروتوكولات، بدلاً من الاعتماد عليه في دعم القرارات السريرية التي تمسّ نتائج المرضى بشكل مباشر.
تخلص المادة إلى أن قدرات الذكاء الاصطناعي الطبي تتقدم بوتيرة أسرع من قدرة المؤسسات على استيعابها ضمن أطر تنظيمية ومسؤولية قانونية ومسارات عمل متماسكة.
وبينما تتيح اشتراكات شهرية في حدود 20 دولارًا الوصول إلى أدوات ذات قدرات منطقية طبية متقدمة، يبقى تأثيرها الفعلي على منظومة الرعاية الصحية رهن الإجابة عن أسئلة أساسية لم تُحسم بعد.







