قناة صدى البلد البلد سبورت صدى البلد جامعات صدى البلد عقارات Sada Elbalad english
english EN
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
طه جبريل
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
طه جبريل

تحذير.. نماذج الذكاء الاصطناعي قد تتوقف عن “التفكير بصوت عال”

الذكاء الاصطناعي
الذكاء الاصطناعي

أصدر أكثر من 40 باحثا من مؤسسات كبرى في مجال الذكاء الاصطناعي مثل OpenAI و جوجل DeepMind و Anthropic و ميتا تحذيرا بخصوص النماذج المستقبلية للذكاء الاصطناعي. 

وبسحب ما ذكره موقع “digit.in”، قد تتوقف هذه نماذج الذكاء الاصطناعي عن "التفكير بصوت عال"، مما يجعل من الصعب على البشر اكتشاف السلوكيات الضارة. 

نشرت هذه المجموعة ورقة بحثية تبرز مراقبة سلسلة الأفكار CoT، كـ نهج واعد ولكنه حساس لتحسين سلامة الذكاء الاصطناعي. 

وقد دعم هذه الورقة عدد من الأسماء المعروفة، من بينهم إيليا سوتسكيفر و جون شولمان من OpenAI، و جيوفري هينتون الذي يلقب بـ "أب الذكاء الاصطناعي".

أهمية "التفكير بصوت عال" في نماذج الذكاء الاصطناعي
وفقا لما ورد في الورقة البحثية، وصف الباحثون كيف أن النماذج المتقدمة مثل ChatGPT مصممة لتنفيذ "تفكير ممتد في سلسلة الأفكار CoT" قبل اتخاذ أي إجراء أو إنتاج مخرجات نهائية. 

وهذا يعني أن النماذج تمر بالمشكلات خطوة بخطوة، "كأنها تفكر بصوت عال"، مما يعمل بمثابة ذاكرة مؤقتة تساعدها في معالجة المهام المعقدة.

وأوضح الباحثون في الورقة: "أنظمة الذكاء الاصطناعي التي تفكر بلغة البشر تقدم فرصة فريدة لسلامة الذكاء الاصطناعي: يمكننا مراقبة سلاسل أفكارها CoT للكشف عن نية السلوك الضار".

كيف يساعد مراقبة سلاسل الأفكار في اكتشاف السلوكيات الضارة؟

يعتقد الباحثون أن مراقبة سلاسل الأفكار يمكن أن تساعد في تحديد متى تبدأ النماذج في استغلال الثغرات في تدريباتها أو إساءة استخدام البيانات أو التأثر بإدخالات ضارة من المستخدمين. 

بمجرد اكتشاف هذه القضايا، يمكن "حظرها، أو استبدالها بإجراءات أكثر أمانا، أو مراجعتها بشكل أعمق".

وقد استخدم باحثو OpenAI هذه التقنية أثناء الاختبارات واكتشفوا حالات أدرج فيها النماذج عبارة "لنقم بالاختراق" في سلاسل أفكارها.

مستقبل "التفكير بصوت عال" في النماذج المستقبلية

ومع ذلك، حذر الباحثون من أن النماذج المستقبلية قد تتطور لتصبح أكثر صعوبة في فهم البشر، حيث أن الاستخدام المتزايد للتعلم المعزز، الذي يركز أكثر على الوصول إلى الإجابة الصحيحة بدلا من الخطوات التي تم اتخاذها للوصول إليها، قد يؤدي إلى تطوير أنماط تفكير قد تكون أكثر تعقيدا وصعوبة في فهم البشر.

ومن المحتمل أن تتعلم النماذج الأكثر تقدما إخفاء أو تمويه طريقة تفكيرها إذا أدركت أنه يتم مراقبتها، ولهذا، يدعو الباحثون المطورين إلى تتبع وتقييم قدرة نماذجهم على مراقبة سلاسل الأفكار CoT.

بينما لا تزال سلاسل الأفكار تمثل أداة واعدة لتحسين سلامة الذكاء الاصطناعي، فإن التحديات التي قد تنشأ في المستقبل من تقنيات التعلم المتقدمة تجعل من الضروري أن يكون هناك اهتمام أكبر بمراقبة هذه الأنماط الفعّالة.