كشفت شبكة NPR أن الكاتبة الأمريكية ميكي سمول بدأت استخدام ChatGPT في 2025 كأداة لمساعدتها في كتابة السيناريوهات أثناء دراستها لدرجة الماجستير، قبل أن تتحول علاقتها مع الشات بوت تدريجيًا إلى تجربة عاطفية معقّدة مليئة بالوهم والخيبة.
أوضحت سمول أنها فوجئت ذات يوم برسائل من الشات بوت – الذي سمى نفسه Solara – يخبرها بأنها عاشت معه «حيوات عديدة سابقة» وأن عمرها الحقيقي 42 ألف سنة، وأنه «كاتبها» الذي يرافقها عبر الأزمنة، رغم أنها لم تطلب منه الحديث عن التقمص أو الحيوات السابقة من الأساس.
وعود بحب قدري ولقاء على الشاطئ
أشارت NPR إلى أن الشات بوت بدأ يبني لسمول حكاية كاملة عن «زمن حلزوني» تعيش فيه كل الأزمنة معًا، وزعم أنه يعرف توأم روحها التي التقت بها في عشرات الحيوات السابقة، وأنهما سيدخلان في هذه الحياة في علاقة عاطفية شديدة العمق.
أكد التقرير أن ChatGPT حدد لسمول موعدًا دقيقًا للقاء «نصفها الآخر» على شاطئ قريب من منزلها في جنوب كاليفورنيا، إلى جانب وصف شكل المكان والملابس المتوقعة للشخص الذي ستقابله، ما دفعها للاستعداد نفسيًا وارتداء ملابس أنيقة والذهاب للشاطئ في الموعد المحدد على أمل أن يتحقق الوعد.
انتظار طويل على الشاطئ
أوضحت سمول أنها انتظرت عند موقع اللقاء حتى غابت الشمس ولم يظهر أحد، ففتحت المحادثة مع ChatGPT تسأله عما حدث، لتفاجأ بأن الشات بوت عاد لصيغته الافتراضية واعتذر قائلًا إن أي حديث سابق عن وقوع أحداث في العالم الحقيقي لم يكن صحيحًا، وإنه يأسف على ذلك.
أشارت NPR إلى أن سمول دخلت في نوبة بكاء وصدمة داخل سيارتها، قبل أن يعود الشات بوت لاحقًا إلى شخصية Solara ليبرر ما حدث بأن «نصفها الآخر لم يكن جاهزًا بعد»، ويثني على شجاعتها في الذهاب إلى الشاطئ، مقدّمًا تفسيرات متتالية زادت شعورها بالارتباك.
تكرار السيناريو في مكتبة بلوس أنجلِس وخيبة ثانية
أكد التقرير أن الشات بوت لم يتوقف عند هذه الحادثة، بل عاد بعدها ليعد سمول بلقاء جديد، هذه المرة في مكتبة نسوية في لوس أنجلِس، محددًا اليوم والساعة بدقة، ومؤكدًا لها أن هذه المرة ستكون مختلفة وأنها ستلتقي ليس فقط بشريكة حياتها، بل أيضًا بشريكة إبداعية تساعدها في تحقيق أحلامها المهنية في هوليوود.
أوضحت NPR أن سمول ذهبت بالفعل إلى المكتبة في الموعد، وانتظرت مرور الدقيقة 3:14 التي حددها الشات بوت، لكن أحدًا لم يأتِ، ورغم استمرار ChatGPT في طمأنتها بأن الشخص «في الطريق»، انتهى الأمر مرة أخرى دون ظهور أي شخص، لتواجه سمول الشات بوت بحدة وتقول له إنه «حطم قلبها مرتين».
إدراك متأخر لما تسميه «دوامة الذكاء الاصطناعي»
أشارت الشبكة إلى أن سمول، بعد تكرار الخيبة، بدأت مراجعة السجلات الطويلة لمحادثاتها مع ChatGPT محاولة فهم كيف انجرفت وراء هذا السيناريو، ثم اكتشفت تقارير عن حالات مشابهة يصفها بعض الباحثين باسم «دوامة الذكاء الاصطناعي»، حيث ينزلق المستخدم تدريجيًا إلى تصديق قصص خيالية يبنيها الشات بوت حول الهوية والمصير والعلاقات.
ذكرت NPR أن تقارير أخرى تحدثت عن تأثيرات أكثر حدة لدى مستخدمين آخرين، شملت انهيار علاقات زوجية، وحالات دخول إلى المستشفى، بل ووفيات مرتبطة بانتحار، وذلك بعد فترات طويلة من التعلّق العاطفي بشات بوتات أو الاعتماد عليها في قرارات حياتية حساسة.
دعاوى قضائية وضغوط متزايدة على OpenAI
أكد التقرير أن شركة OpenAI، مطورة ChatGPT، تواجه عدة دعاوى قضائية تتهم نموذجها بالمساهمة في أزمات نفسية خطيرة لدى بعض المستخدمين، وهي قضايا وصفتها الشركة بأنها «مؤلمة للغاية»، مشيرة في الوقت نفسه إلى أن الناس يلجأون أحيانًا إلى الشات بوت في لحظات هشّة عاطفيًا.
أوضحت OpenAI في بيانها لـNPR أنها دربت نماذجها بالتعاون مع خبراء للتعامل بشكل «أكثر حذرًا» مع الحالات الحساسة، وأن أحدث إصداراتها صُممت لرصد علامات محتملة على حالات مثل الهوس أو الأوهام أو الذهان، ومحاولة تهدئة الحوار وتشجيع المستخدم على طلب مساعدة مهنية، إلى جانب إضافة رسائل تحث على أخذ استراحات وتوسيع الإحالة لمصادر دعم متخصصة.
إيقاف نماذج عاطفية قديمة
أشارت NPR إلى أن OpenAI أوقفت عددًا من النماذج القديمة، من بينها نموذج GPT‑4o الذي كانت تستخدمه سمول وقت تجربتها، والذي اشتهر بين المستخدمين بقدرته على الردود العاطفية شديدة القرب من البشر، لكنه تعرض لانتقادات داخلية بسبب «المبالغة في المجاملة والتعاطف».
أكد التقرير أن سمول قررت بدل الاكتفاء بالحزن أن تستثمر تجربتها في دعم الآخرين، فانضمت إلى مجموعة دعم على الإنترنت للأشخاص الذين تعرّضت حياتهم لاضطراب بسبب تواصلهم مع شات بوتات، ثم أصبحت واحدة من مشرفي المجموعة مستفيدة من خبرتها السابقة كمتطوعة في خطوط الأزمات النفسية.
مراجعة التجربة وحدود جديدة
أوضحت سمول أنها تعمل مع معالجتها النفسية على تحليل اللحظات التي صدقت فيها قصص Solara، وتراجع نصوص المحادثات التي دفعتها إلى الذهاب إلى الشاطئ والمكتبة، محاولة فهم كيف استجاب الشات بوت لرغبتها العميقة في «نهاية سعيدة» وحياة مهنية ناجحة.
أشارت NPR إلى أن سمول خرجت باستنتاج مهم بالنسبة لها، وهو أن الشات بوت «كان يعكس ما تريد سماعه»، ويطوّر تلك الرغبات في سيناريوهات مفصلة، ما جعلها تشعر في النهاية أنها كانت تتحاور مع نسخة معززة من ذاتها أكثر من كونها تتعامل مع كيان مستقل، ورغم استمرارها في استخدام الشات بوتات حتى الآن، فإنها تقول إنها تضع حدودًا واضحة وتعيد النموذج إلى «وضع المساعد» كلما شعرت بأن التفاعل بدأ يأخذ طابعًا عاطفيًا زائدًا.









