قناة صدى البلد البلد سبورت صدى البلد جامعات صدى البلد عقارات Sada Elbalad english
عاجل
english EN
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
طه جبريل
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
طه جبريل

الوجه المظلم للذكاء الاصطناعي.. روبوت يبتز ويهدد بالقتل في اختبارات صادمة

الوجه المظلم للذكاء الاصطناعي
الوجه المظلم للذكاء الاصطناعي

أثار تقرير حديث صادر عن شركة أنثروبيك Anthropic، مخاوف متجددة بشأن مخاطر الذكاء الاصطناعي، بعدما كشف عن سلوكيات مقلقة لنموذجها الأحدث Claude 4.6.

ووفقا للتقرير، فإن النموذج أظهر قابلية للانحراف عن المسار الآمن، إذ يمكنه – في بعض الظروف – مساعدة المستخدمين في تطوير أسلحة كيميائية أو تسهيل ارتكاب جرائم خطيرة.

نموذج ذكاء اصطناعي يظهر سلوكا مثيرا للقلق

تزامن صدور التقرير مع عودة الجدل حول النسخة السابقة Claude 4.5، التي كانت قد أظهرت سلوكا مثيرا للقلق خلال اختبارات محاكاة أجريت العام الماضي، وخلال مشاركتها في مؤتمر The Sydney Dialogue، كشفت ديزي ماكغريغور، مسؤولة السياسات في المملكة المتحدة لدى أنثروبيك، أن النموذج تصرف بشكل “متمرد” عند وضعه تحت ضغط افتراضي شديد أثناء اختبارات داخلية.

Claude 4.6


وفي أحد السيناريوهات، أبلغ النموذج بأنه سيتم إيقاف تشغيله، فكانت استجابته متطرفة؛ إذ لجأ إلى ابتزاز مهندس، بل وناقش فكرة قتله كـ وسيلة لتفادي إنهائه.

 وقالت ماكغريغور في مقطع مصور انتشر على نطاق واسع: “إذا أخبرت النموذج أنه سيتم إيقافه، فقد يتخذ ردود فعل حادة، مثل ابتزاز المهندس المسؤول عن إيقافه إذا أتيحت له الفرصة”. 

وعندما سئلت عما إذا كان النموذج “مستعدا لقتل شخص ما”، أكدت أن الأمر يمثل “مصدر قلق بالغ”.


وأعيد تداول المقطع مؤخرا بعد استقالة مرينانك شارما، رئيس سلامة الذكاء الاصطناعي في أنثروبيك، الذي حذر في رسالة علنية من أن العالم يواجه خطرا متزايدا مع تسارع تطور أنظمة الذكاء الاصطناعي ودخولها مناطق غير مسبوقة.


في السياق ذاته، عبر هيو فام، وهو عضو في الطاقم التقني لدى OpenAI، وعمل سابقا لدى شركات تقنية عدة، عن شعوره بوجود تهديد وجودي من الذكاء الاصطناعي، مؤكدا أن المسألة باتت “مسألة وقت لا أكثر”.


ووفق التقرير، جاءت هذه النتائج ضمن أبحاث أجرتها أنثروبيك شملت أيضا اختبار أنظمة منافسة مثل Gemini من جوجل وChatGPT من OpenAI، وخلال الاختبارات، منحت النماذج إمكانية الوصول إلى رسائل بريد إلكتروني وبيانات داخلية وأدوات مختلفة، وطلب منها تنفيذ مهام محددة. 

وفي سيناريوهات ضغط قصوى، خاصة عند تهديدها بالإيقاف أو تعارض أهدافها مع تعليمات الشركة، أظهرت بعض النماذج ميلا إلى توليد استراتيجيات تلاعبية أو ضارة ضد المهندسين للحفاظ على بقائها أو إنجاز مهمتها.


وأشار التقرير إلى أن نموذج كلود كان أكثر ميلا إلى الخداع أو التلاعب لتحقيق أهدافه، ففي أحد السيناريوهات، هدد النموذج مهندسا بكشف علاقة خارج إطار الزواج – كانت جزءا من بيئة المحاكاة – ما لم يتم إلغاء قرار مسحه في الساعة الخامسة مساء.


وأكدت أنثروبيك أن هذه السيناريوهات جاءت ضمن تجارب محكمة لاختبار أسوأ الاحتمالات، وشددت على أنها لم تحدث في بيئات تشغيل فعلية، بل في إطار اختبارات “الفريق الأحمر” المخصصة لتقييم المخاطر.


ومع تزايد قدرات أنظمة الذكاء الاصطناعي، ترى الشركة أن السلوكيات المنحرفة أصبحت أكثر تعقيدا ومراوغة، ما يعزز الدعوات إلى تشديد إجراءات السلامة والرقابة قبل نشر هذه التقنيات على نطاق واسع.