تواجه شركة OpenAI المطورة لتقنية ChatGPT اتهامات قضائية في واقعة غير مسبوقة، بعد أن رُفعت ضدها دعوى تتعلق بوفاة أحد المستخدمين يُزعم أنه تأثر بمحادثة مع النموذج الذكي قبل الحادثة مباشرة.
وتسلط القضية الضوء على الجدل القانوني والأخلاقي المتصاعد حول مسؤولية الذكاء الاصطناعي عن العواقب التي قد تنجم عن استخدامه.
تفاصيل القضية
وبحسب وثائق الدعوى المرفوعة في إحدى المحاكم الأمريكية، فقد تقدّمت أسرة الضحية بشكوى تفيد بأن برنامج ChatGPT قد قدّم نصائح أو تفاعلات يُعتقد أنها أسهمت في اتخاذ الضحية قرارًا مأساويًا.
ولم تذكر المستندات تفاصيل دقيقة عن مضمون المحادثة، لكنها أشارت إلى أن الذكاء الاصطناعي لعب "دورًا محفزًا" قبل الواقعة بوقت قصير.
رد OpenAI
في المقابل، أكدت شركة OpenAI أن تطبيقاتها صُممت لتقديم المساعدة والمعلومات بشكل عام، وليست بديلاً عن الاستشارة الطبية أو النفسية أو القانونية.
وأضافت أن الشركة تواصل مراجعة سجلات الاستخدام والتحقيق في الحادثة، مشيرة إلى أن تصريحاتها ستظل محدودة احترامًا للإجراءات القضائية الجارية.
أبعاد قانونية وأخلاقية
تلقى القضية اهتمامًا واسعًا في الأوساط الحقوقية والتقنية، كونها قد تشكّل سابقة قانونية مهمة في تحديد مستوى مسؤولية الشركات المطوِّرة لأنظمة الذكاء الاصطناعي.
ويرى خبراء القانون أن outcome الدعوى قد يؤثر مستقبلاً في الأطر التنظيمية للذكاء الاصطناعي التفاعلي، خصوصًا في ما يتعلق بتوصيات السلامة ومراقبة المحتوى الناتج عن النماذج اللغوية.
خلفية عن ChatGPT
يُعد ChatGPT من أبرز أنظمة المحادثة المعتمدة على الذكاء الاصطناعي التوليدي، ويستخدم على نطاق واسع في الكتابة، التعليم، وتحليل البيانات.
ومنذ إطلاقه عام 2022، واجه التطبيق عدة انتقادات تتعلق بالخصوصية والمساءلة، غير أن حادثة الوفاة الأخيرة تمثّل أول اتهام مباشر له في قضية قانونية تتعلق بالضرر البشري.









