الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

اختفاء لمهنة المحامي في المستقبل بسبب الذكاء الاصطناعي

اختفاء لمهنة المحامي
اختفاء لمهنة المحامي في المستقبل..بسبب الذكاء الاصطناعي

ذكر أحد المحامين المشهورين في الخارج أنع يجد حياته المهنية القانونية بأكملها في خطر بسبب الاعتماد غير المتوقع على روبوت محادثة الذكاء الاصطناعي AI.  قام ChatGPT ، برنامج الدردشة الآلي الشهير الذي طورته شركة OpenAI ، بتلفيق سلسلة من القضايا القانونية الخيالية التي استشهد بها شوارتز في ملف حديث.  

بحسب ما ذكره موقع جيز مو شينا التقني،  هذه الحادثة ، التي من المحتمل أن تعرقل مسيرة شوارتز المهنية التي استمرت 30 سنة ، هي بمثابة قصة تحذيرية حول الجوانب السلبية المحتملة للاعتماد فقط على تكنولوجيا الذكاء الاصطناعي في المهنة القانونية.

القضية المذكورة في هذا الجدل هي قضية ماتا ضد شركة الطيران Avianca ، حيث رفع عميل يدعى روبرتو ماتا دعوى قضائية ضد شركة الطيران بعد تعرضه لإصابة في الركبة من عربة خدمة أثناء الرحلة.  بينما سعى محامو ماتا لمواجهة محاولة Avianca لرفض القضية ، قدموا موجزًا ​​يستشهد بالعديد من قرارات المحكمة السابقة. و تحول شوارتز ، الذي يمثل ماتا ، إلى ChatGPT لاستكمال بحثه وتقديم أمثلة إضافية.

بدلاً من ذلك ، أنشأ ChatGPT قائمة بالقضايا الوهمية ، بما في ذلك Varghese ضد China Southern Airlines ، و Shaboon v. Egyptair ، و Petersen v. Iran Air ، و Martinez v. Delta Airlines ، و Estate of Durden ضد KLM Royal Dutch Airlines ، و Miller ضد United  الخطوط الجوية ، وتم اختلاق هذه الحالات بالكامل بواسطة روبوت الدردشة AI.

اكتشف كل من الفريق القانوني لشركة Avianca والقاضي الذي يرأس الجلسة بسرعة أن هذه القضايا المشار إليها لم تكن موجودة.  في إفادة خطية ، اعترف شوارتز باعتماده غير المقصود على المعلومات الخاطئة الناتجة عن ChatGPT.  حتى أن المحامي قدم لقطات من تفاعلاته مع برنامج الدردشة الآلي ، حيث سعى للحصول على تأكيد على صحة القضية وتلقى ردودًا مضللة.

يسلط هذا الحادث الضوء على المخاطر المحتملة المرتبطة بالثقة العمياء في تكنولوجيا الذكاء الاصطناعي في المجال القانوني.  في حين أن أدوات الذكاء الاصطناعي يمكنها بلا شك تعزيز البحث القانوني والكفاءة ، إلا أن الرقابة البشرية والتفكير النقدي يظلان حاسمين في ضمان دقة المعلومات وموثوقيتها.

عندما تتكشف هذه القضية ، فإنها بمثابة دعوة للاستيقاظ للمهنيين القانونيين لتوخي الحذر عند دمج الذكاء الاصطناعي في ممارساتهم.  يجب دائمًا استكمال الاعتماد على التكنولوجيا من خلال التحقق البشري والفهم الشامل للقيود والتحيزات المحتملة لأنظمة الذكاء الاصطناعي.  قد يكون للفشل في القيام بذلك عواقب وخيمة ، كما يتضح من المأزق المؤسف لستيفن شوارتز.