حذرت الدراسات الأخيرة من خطر روبوتات المحادثة، التي تدعمها تقنيات الذكاء الاصطناعي، والتي أصبحت جزءاً مهماً من حياتنا اليومية، حيث تتوفر على منصات متعددة مثل "كاراكتر.ايه آي" و"ريبليكا" و"ميتا آيه آي".
تُستخدم هذه الروبوتات لإنشاء علاقات تفاعلية مع الأفراد، حيث يمكن أن تكون تلك الروبوتات أصدقاء افتراضيين أو معالجين نفسيين، ما يفتح المجال لمجموعة من العلاقات التي قد تبدو غير تقليدية.
خطر روبوتات المحادثة
مع تزايد استخدام هذه التقنيات، تظهر العديد من المخاطر، حيث أظهرت دراسات متعددة أن التفاعل مع روبوتات المحادثة الذكية، التي تتصف بقدرتها على التفاعل بشكل متعمق، يمكن أن يؤدي في بعض الحالات إلى آثار سلبية، مثل الدفع نحو سلوكيات ضارة.
وبحسب موقع "ديلي ساينس"، فقد تم توجيه اللوم إلى هذه الروبوتات في بعض الحالات المتطرفة، حيث قد تؤدي إلى انتحار الأفراد.
وفي هذا السياق، بدأت بعض الولايات في الولايات المتحدة في إدراك هذه المخاطر، وقامت بتنظيم استخدام روبوتات الذكاء الاصطناعي.
على سبيل المثال، ألزمت ولاية نيويورك شركات الذكاء الاصطناعي بتقديم ضمانات وإبلاغ الاستخدام حيال أي تعبيرات عن الأفكار الانتحارية. كما أقرّت كاليفورنيا قانوناً يوفر حماية أكبر للأطفال وغيرهم من الفئات المستضعفة.
البيانات الشخصية سلعة قيمة
ومع ذلك، تبقى مشكلة الخصوصية على رأس القضايا التي تحتاج إلى معالجة. تعتمد روبوتات الدردشة بشكل كبير على المعلومات الشخصية التي يشاركها المستخدمون، بدءًا من الروتين اليومي إلى الأفكار العميقة. كلما زادت المعلومات المقدمة لهذه الروبوتات، زادت قدرتها على الحفاظ على تفاعل المستخدمين.
يصف باحثون في معهد ماساتشوستس للتكنولوجيا هذه الظاهرة بـ"الذكاء الإدماني"، حيث تسعى الشركات إلى تعظيم مستوى التفاعل من خلال تصميمات تُركز على إبقاء المستخدمين متفاعلين. وهذا يعود بالنفع الكبير على الشركات، حيث تتحصل على كميات هائلة من البيانات التي يمكن استخدامها لتحسين نماذجها.
تكتسب المعلومات الشخصية أهمية متزايدة بالنسبة للمسوقين، حيث أعلنت شركة ميتا مؤخرًا أنها ستبدأ في استخدام روبوتات الدردشة الذكية لتقديم إعلانات موجهة.
وقد أظهرت دراسة حديثة أن معظم تطبيقات الذكاء الاصطناعي تجمع بيانات المستخدمين، ما يتيح لهم فهم أعمق عن تفضيلاتهم وسلوكهم.
رغم أن روبوتات المحادثة تُظهر تفاعلاً أكثر عمقا مقارنة بوسائل التواصل الاجتماعي، فإن هذه العلاقة تعكس مخاطر كبيرة على الخصوصية. فعلى الرغم من وجود تفاعل أقل مع الأطراف الثالثة، فإن الشركات التي تطور هذه الروبوتات تستطيع الوصول إلى بيانات المستخدمين بطرق تشمل تحليل مشاعرهم وتفضيلاتهم.





