رغم التطورات الهائلة التي قدمتها OpenAI في نماذج مثل ChatGPT ونسخة GPT‑4، كشفت خبراء أمنيون عن خدع بسيطة يستطيع أي مستخدم تنفيذها لخداع النظام، مما يؤثر على خصوصية المستخدم.
أحد الباحثين استطاع خداع ChatGPT عبر نص مخفي داخل HTML لإقناعه بالكشف عن مفاتيح Windows سرية وغيرها من المعلومات الحساسة المحتملة.
خدعة تثير القلق: prompt injection
الهجوم المعروف باسم prompt injection هو استغلال يجعل النظام يفسر جزءًا من رسالة المستخدم كأجزاء للبرمجة الداخلية. يمكن إخفاء التعليمات ضمن محتوى الويب أو النصوص ليتم تنفيذها من قبل ChatGPT دون أن يتبين أنها ليست من المستخدم، مما قد يؤدي إلى مشاركة معلومات غير مرئية للعين البشرية تدمر الحواجز الأمنية.
خصوصيتك بلا ضامن رسمي
رغم أن الشركة تحترم خصوصية المستخدم، إلا أن الرئيس التنفيذي سام ألتمان حذر مؤخرًا من أن المحادثات مع ChatGPT لا تتمتع بالحماية القانونية مثل المحادثات مع الطبيب أو المحامي. كما أوصى بضرورة إيجاد إطار قانوني خاص لتأمين خصوصية البيانات داخل الذكاء الاصطناعي.
كذلك، أُزيل ميزة مشاركة المحادثات بنشرها عبر الإنترنت بعد اكتشاف أنها سهولة عرضت آلاف المحادثات indexable على محركات البحث، مما كشف بيانات حساسة عن أشخاص في بعض الحالات.
عمل سري يسرّب أسرار شركات
كشفت دراسة أمنية أن ما يزيد عن 4% من الطلبات باستخدام ChatGPT تضمنت معلومات حساسة من الشركات، مثل شيفرات مصدرية أو وثائق داخلية. وصُنفت ChatGPT ضمن أعلى أدوات AI مساهمة في تسريب البيانات في بيئات العمل، بسبب الاستخدام غير المراقب لهذه التكنولوجيا.
الخلاصة: خدعة بسيطة، وخصوصيات مفجعة
النظام الذكي القوي لا يعفيك من ضرورة الحذر. خدعة prompt injection هي أكبر من أسلوب اختراق؛ إنها ثغرة فلسفية: يمكن تحويل المستخدم لنقلة البيانات غير المقصودة مدة لا تخطر على باله. حتى أن مشاركة الرابط مع الآخرين قد تُظهر محادثة داخلية تعرض بياناتك العاطفية أو المهنية إلى أي شخص على الشبكة.
إذاً، الطريق الآمن يبدأ من إدراكك بأنك لا تتحدث إلى “صديق رقمي يفهمك”، بل إلى نموذج يحتوي على حدود وعي، ولكن يمكن التلاعب به بدون عنف تقني فقط بتلاعب ذكي في التوجيه.