الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

موت كل شخص على وجه الأرض.. رسالة صادمة عن الذكاء الاصطناعي

روبوت - وكالة الصحافة
روبوت - وكالة الصحافة الفرنسية

تزداد المخاوف من الذكاء الاصطناعي، وهذا ما دفع “إليعازر يودكوسكي” كبير الباحثينللتحذير من أن البشرية ليست مستعدة للنجاة من مواجهة مع ذكاء اصطناعي أكثر ذكاءً.

مخاوف من الذكاء الاصطناعي

ووفقا لموقع “روسيا اليوم”، حذر الباحث رفيع المستوى في منظمة العفو الدولية من أنه يجب إيقاف تطوير أنظمة ذكاء اصطناعي حول العالم ومعاقبة من ينتهك الحظر، لأنها الطريقة الوحيدة لإنقاذ البشرية من الانقراض.

وكتب إليعازر يودكوسكي ، المؤسس المشارك لمعهد أبحاث ذكاء الآلة (MIRI) ، مقال رأي لمجلة تايم، موضحًا سبب عدم توقيعه على عريضة تدعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لستة أشخاص على الأقل . 

جادل إليعاذر بأن الرسالة، التي وقعها ستيف وإيلون ماسك، تطلب القليل جدًا لحل المشكلة التي يطرحها التطور السريع وغير المنضبط للذكاء الاصطناعي.

كتب يودكوفسكي: "النتيجة الأكثر ترجيحًا لبناء ذكاء اصطناعي خارق للبشر، تحت أي شيء بعيد مثل الظروف الحالية ، هو أن كل شخص على وجه الأرض سيموت حرفيًا" .

وأوضح أن النجاة من المواجهة مع نظام كمبيوتر، لا يهتم بنا ولا للحياة الواعية بشكل عام، يتطلب الدقة والإعداد والرؤى العلمية الجديدة، التي تفتقر إليها البشرية في الوقت الحالي ومن غير المرجح أن تحصل عليها في المستقبل المنظور. 

حظر دائم للذكاء الاصطناعي

وحذر من أن الذكاء الاصطناعي الذكي بدرجة كافية لن يظل محصوراً بأجهزة الكمبيوتر لفترة طويلة، وأوضح أنه من الممكن بالفعل إرسال الحمض النووي إلى المعامل لإنتاج البروتينات التي ستسمح للذكاء الاصطناعي ببناء أشكال حياة اصطناعية أو تمهيد مباشر لتصنيع الجزيئات ما بعد البيولوجية والخروج إلى العالم.

وفقًا للباحث ، يجب على الفور فرض حظر عالمي وغير محدود على الدورات التدريبية الرئيسية الجديدة في مجال الذكاء الاصطناعي، وشدد على أنه لا يمكن أن يكون هناك استثناءات ، بما في ذلك الحكومات أو الجيوش.

وأصر يودكوسكي على ضرورة توقيع الصفقات الدولية لوضع حد أقصى لمقدار قوة الحوسبة التي يمكن لأي شخص استخدامها في تدريب مثل هذه الأنظمة.

وأضاف أن التهديد من الذكاء الاصطناعي كبير لدرجة أنه يجب أن يكون واضحًا في الدبلوماسية الدولية بأن منع سيناريوهات انقراض الذكاء الاصطناعي يعتبر أولوية فوق منع التبادل النووي الكامل.