الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

ماكينة أخبار كاذبة.. OpenAI تحاول علاج "هلوسة" أدوات الذكاء الاصطناعي

OpenAI
OpenAI

أعلنت شركة "أوبن إيه آي" أنها تتولى أهمية قصوى لعلاج حالة الهلوسة التي تنتاب نماذج الذكاء الاصطناعي ، بأسلوب حديث لإعادة تدريب أدوات  الذكاء الاصطناعي التوليدي.

وفقا لتقرير موقع cnbc يأتي البحث عن حل في وقت أصبحت فيه المعلومات المضللة النابعة من أنظمة الذكاء الاصطناعي مطروحة على طاولة النقاشات أكثر من أي وقت مضى، خاصة بعد الطفرة المذهلة في هذه الأدوات التوليدية والبدء في التحضير للانتخابات الرئاسية الأمريكية عام 2024.

 

قامت شركة OpenAI بإحداث طفرة هائلة في الذكاء الاصطناعي العام الماضي عندما أصدرت ChatGPT ، روبوت الدردشة الخاص بها المدعوم من نماذج GPT-3 و GPT-4 ، وبالفعل تجاوز 100 مليون مستخدم شهريًا في أول شهرين من طرح للجمهور، ويقال إنه سجل رقمًا قياسيًا عندما تم طرح تطبيق لهواتف الآيفون، مع كونه أكثر التطبيقات تنزيلا والتطبيق الأسرع نموًا. 

OpenAI 

حتى الآن ، مايكروسوفت استثمرت أكثر من 13 مليار دولار في OpenAI ، ووصلت قيمة الشركة الناشئة إلى ما يقرب من 29 مليار دولار، ورغم أن هذه التقنيات قد تبدو واعدة إلا أن طريقة استخدامها وتجنيدها لنشر أخبار كاذبة يقلق الكثيرين من هذه التقنية.

مع الاستخدام المتكرر لمثل هذه النماذج، بدأت تظهر السلبيات وأهمها أن هذه الروبوتات "تهلوس" أو تفبرك المعلومات وتطرحها وكأنها حقائق، هذا أمر مشترك بين ChatGPT من OpenAI أو روبوت Bard من جوجل، يقومان بتلفيق معلومات بالكامل.

أحد الأمثلة: في الفيديو الترويجي لشركة جوجل في شهر فبراير الخاصة بـ  Bard ، قدم روبوت المحادثة معلومات غير صحيحة بشأن تلسكوب جيمس ويب. في الآونة الأخيرة ، استشهد ChatGPT بقضايا "وهمية" في ملف محكمة فيدرالية بنيويورك ، وقد يواجه محامو نيويورك المعنيين عقوبات.

كتب باحثو أوبن إيه آي في تقرير يرصد المشكلة: "حتى النماذج الحديثة تميل إلى اختراع الأكاذيب فهي تظهر ميلًا لاختراع حقائق وهمية في لحظات عدم اليقين، هذه الهلوسة مشكلة بشكل خاص في المجالات التي تتطلب تفكيرًا متعدد الخطوات ، لأن خطأ منطقيًا واحدًا يكفي لفشل كل الخطوات اللاحقة"

استراتيجية OpenAI الجديدة المحتملة لمحاربة نشر المعلومات المزيفة هي تدريب نماذج الذكاء الاصطناعي لمكافأة أنفسهم على الإجابات الصحيحة، والتدريب على خطوة التفكير السليم الذي يتوافق مع الحقائق بدلا من اختراعها يُطلق على هذا النهج "الإشراف على العملية" ، بدلاً من "الإشراف على النتائج" ، ويمكن أن يؤدي إلى ذكاء اصطناعي يمكن تفسيره بشكل أفضل ، وفقًا للباحثين ، حيث تشجع الاستراتيجية ChatGPT على اتباع نهج التفكير المتسلسل الشبيه بنفس طريقة تفكير الإنسان.