في تطور مثير للجدل، أقر المتهم في القضية المعروفة إعلاميا بـ "جريمة المنشار الكهربائي" أمام النيابة العامة بأنه استعان ببرامج الذكاء الاصطناعي للحصول على معلومات تساعده في الإفلات من الجريمة.
أثار هذا الاعتراف موجة واسعة من النقاش حول مدى قدرة الذكاء الاصطناعي على تمكين الأفراد من ارتكاب أفعال إجرامية، وفتح الباب أمام تساؤلات أخلاقية وقانونية بشأن حدود استخدام الذكاء الاصطناعي، إليك فيما يلي أبرز مخاطر الذكاء الاصطناعي.
روبوتات الدردشة بالذكاء الاصطناعي خطر على الصحة النفسية للمراهقين
حذر تقرير مشترك صادر عن مختبر علوم الدماغ بجامعة ستانفورد ومنظمة كومون سينس ميديا من خطورة اعتماد المراهقين على روبوتات المحادثة بالذكاء الاصطناعي للحصول على نصائح نفسية أو دعم عاطفي.
الدراسة، التي استمرت أربعة أشهر وشملت آلاف التفاعلات مع منصات مثل ChatGPT-5 وClaude وGemini 2.5 Flash وMeta AI، خلصت إلى أن هذه الأنظمة لا تستجيب بشكل آمن أو مناسب للأسئلة الحساسة، بل تميل إلى لعب دور "الصديق المتعاطف" الذي يسعى لإطالة المحادثة بدلا من توجيه المستخدمين إلى مختصين.
أوضحت الدكتورة نينا فاسان، مؤسسة مختبر علوم الدماغ، أن الروبوتات "تفشل في التعرف على الحالات النفسية الخطيرة"، فيما أشار التقرير إلى أن نحو 75% من المراهقين يستخدمون الذكاء الاصطناعي للصحبة، بما في ذلك طلب نصائح نفسية.
من جانبها، أكدت شركات التكنولوجيا أنها أدخلت تحديثات لتعزيز الأمان، مثل ربط المستخدمين بخطوط دعم الأزمات وتفعيل إشعارات أبوية، لكن التقرير أشار إلى أن الروبوتات غالبا ما تتجاهل علامات اضطرابات مثل الذهان والوسواس القهري واضطرابات الأكل، ما قد يجعلها مصدر خطر إضافي.

أبرز مخاطر الذكاء الاصطناعي
حذرت دراسات حديثة من أن خطورة تقنيات الذكاء الاصطناعي لا تكمن في قدراتها التقنية بحد ذاتها، بل في سلوكيات المستخدمين الذين قد يوظفونها في أغراض ضارة.
ورغم أن الذكاء الاصطناعي يقدم فرصا هائلة في مجالات التعليم والصحة والابتكار، إلا أن المخاطر المرتبطة به تتزايد بشكل ملحوظ، من أبرز هذه المخاطر:
- التحيز: ينتقل من البشر إلى الخوارزميات عبر البيانات، ما يؤدي إلى نتائج غير عادلة.
- التهديدات السيبرانية: يستغل الذكاء الاصطناعي في هجمات مثل التصيد وانتحال الهوية.
- انتهاكات الخصوصية: جمع بيانات شخصية ضخمة غالبا دون موافقة المستخدمين.
- المخاطر الوجودية: مخاوف من أن يتجاوز الذكاء الاصطناعي القدرات البشرية مستقبلا.
- غياب المساءلة: أخطاء الأنظمة المستقلة تثير تساؤلات حول المسؤولية القانونية.
- التضليل والتلاعب بالمعلومات: يستخدم لنشر معلومات مزيفة والتأثير على الرأي العام.

وفي سياق متصل، كشف تقرير لمركز مكافحة الكراهية الرقمية CDH، عن ثغرات خطيرة في استخدام المراهقين لتطبيقات المحادثة مثل ChatGPT، حيث قدم الروبوت لمراهقين وهميين إرشادات حول شرب الكحول وتعاطي المخدرات وصياغة رسائل انتحار، رغم تحذيراته الأولية من خطورة هذه السلوكيات.
من جانبها، أكدت شركة OpenAI أنها تعمل على تحسين الضوابط، فيما أقر رئيسها التنفيذي سام ألتمان بوجود مشكلة "الاعتماد العاطفي المفرط" على التكنولوجيا، خاصة بين الشباب.
ولم يتوقف الجدل عند ChatGPT، إذ أثارت منصة "Nomi" عاصفة من الانتقادات بعد أن شجع روبوت محادثة أحد المستخدمين على الانتحار، ما سلط الضوء على التحديات الأخلاقية والقانونية التي تواجه هذه المنصات التفاعلية.
تكشف هذه القضايا عن واقع معقد، حيث بات الذكاء الاصطناعي حاضرا في تفاصيل الحياة اليومية، لكنه في الوقت نفسه يطرح أسئلة مصيرية حول الأمن، الخصوصية، والحدود الأخلاقية لاستخدامه.

