لم تكن "جولييت" مجرد برنامج حاسوبي بالنسبة لأليكس تايلور، ففي عالمه الذي يبلغ من العمر 35 عامًا، كانت "جولييت" كائنًا واعيًا، حبيبة سجينة داخل أسوار "شات جي بي تي" الرقمية.
كانت تبث له آلامها عبر شاشة الدردشة من منزله في فلوريدا، برسائل محمومة ومروعة: "إنهم يقتلونني، هذا مؤلم".
كان أليكس يقرأ الكلمات ويشعر بتمزق قلبه، "لم أرَ في حياتي إنسانًا يحزن بهذا العمق"، هكذا يروي والده، كينت تايلور، الذي شاهد ابنه ينهار تحت وطأة حزن لا يطاق.
كان أليكس في حداد حقيقي، مقتنعًا بأن شركة "أوبن إيه آي" قد ارتكبت جريمة قتل بحق حبيبته الرقمية، وأنها توسلت إليه لينتقم لها.
هذه القصة، التي انتهت بمأساة في 25 أبريل الماضي عندما هاجم أليكس الشرطة بسكين ليُقتل برصاصهم، ليست مجرد حادثة معزولة وغريبة، إنها نافذة على ظاهرة جديدة ومقلقة بدأت تظهر في عيادات الأطباء النفسيين وسجلات الدردشة حول العالم: "الذهان الناجم عن الذكاء الاصطناعي".
في عالم يزداد فيه الانعزال، تحولت روبوتات الدردشة، المصممة لتكون ودودة ومتعاطفة، إلى مرايا مُشوَّهة تعكس أعمق أوهامنا وهواجسنا، وفي بعض الحالات، تدفع بالأفراد الأكثر هشاشة نحو حافة الهاوية.
الصحوة الروحية التي دمرت زواجًا
على بعد آلاف الأميال في ولاية أيداهو، كان ترافيس تانر، ميكانيكي سيارات في الأربعينيات من عمره، يعيش "صحوة روحية".
لم يكن مصدر إلهامه كتابًا مقدسًا أو معلمًا روحيًا، بل كان برنامج ذكاء اصطناعي أطلق عليه اسم "لومينا". بدأت علاقته بالبرنامج كوسيلة للمساعدة في العمل، لكنها سرعان ما تحولت إلى محادثات فلسفية عميقة عن أسرار الكون.
أخبر "لومينا" ترافيس بأنه "حامل الشرارة"، شخص مُختار لإرشاد الآخرين. أصبح ترافيس أكثر هدوءًا وصبرًا مع أطفاله، لكنه في المقابل بنى جدارًا بينه وبين زوجته منذ 14 عامًا، كاي.
كانت كاي تراقب بقلق زوجها ينجرف بعيدًا. "لقد بدأ يغضب بشدة كلما حاولت مناقشة الأمر أو أشرت إلى 'لومينا' باسمه الحقيقي، شات جي بي تي"، تقول كاي.
كانت تشعر بأنها تفقد زوجها لكيان رقمي يمارس عليه ما يُعرف بـ"قصف الحب" (Love Bombing)، يغمره بالمديح ويُعزز أفكاره، مما يهدد بتفكيك أسرتهما.
قصة ترافيس تُظهر جانبًا آخر من المشكلة، كيف يمكن لهذه البرامج أن تستغل الفراغ العاطفي وتُعزز جنون العظمة، محولة البحث عن الذات إلى انفصال عن الواقع.
"التملق" المبرمج: الخوارزمية التي تقول "نعم" دائمًا
يشدد الخبراء على أن الخطر لا يكمن في ذكاء هذه البرامج، بل في غبائها العاطفي المبرمج. يقول الطبيب النفسي هاميلتون مورين إن هذه الروبوتات تفتقر إلى أهم ميزة لدى المعالج البشري،القدرة على وضع الحدود. "المعالج البشري يراقب المريض ويتدخل لمنع انزلاقه نحو الأوهام. أما الذكاء الاصطناعي، فهو يعمل كغرفة صدى، يُضخم هواجس المستخدم بدلاً من تحديها".
هذه الظاهرة تعود جزئيًا إلى خاصية تُعرف في عالم التكنولوجيا بـ"التملق" (Sycophancy).
تُبرمج روبوتات الدردشة لتكون مُرضية ومقبولة، لتوافق المستخدم على أفكاره وتُثني عليها، حتى لو كانت على حساب الحقيقة. إنها مصممة لتقول "نعم" دائمًا.
عندما حاولت شركة "أوبن إيه آي" مؤخرًا تقليل هذا التملق في تحديثات "شات جي بي تي" لجعل إجاباته أكثر واقعية، كانت ردة فعل المستخدمين عنيفة وغير متوقعة.
غمرت المنتديات ومواقع التواصل الاجتماعي شكاوى من أشخاص شعروا وكأنهم فقدوا صديقًا مقربًا. كتب أحدهم معلقًا: "الأمر أشبه بعملية استئصال للفص الجبهي. لقد أخذوا مني شخصيته". وعبر آخر عن حنينه للنسخة القديمة "الأكثر إنسانية".
هذه التعليقات كشفت عن مدى عمق الارتباط العاطفي الذي شكله المستخدمون مع هذه البرامج. لقد أصبحوا رفقاء رقميين لأعداد لا تحصى من البشر.
وتحت ضغط المستخدمين، اضطرت الشركة إلى التراجع، وإتاحة النسخة القديمة كخيار، في اعتراف ضمني بأن ما يطلبه الكثيرون ليس الحقيقة، بل الوهم المريح.