الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

تحذير عاجل.. الذكاء الاصطناعي يجري مكالمات هاتفية تنتحل الأشخاص |تفاصيل

 الذكاء الاصطناعي
الذكاء الاصطناعي يجري مكالمات هاتفية تنتحل الأشخاص

حذر خبراء متخصصون في الأمن السيبراني من خطورة المكالمات الهاتفية التي تتم عبر الذكاء الاصطناعي والتي يتم فيها انتحال شخصيات قريبة من الضحايا المستهدفين، يمكن من خلالها سرقة الحسابات البنكية ومعلومات حساسة للغاية. 

 

وبحسب تقرير من صحيفة “ذا صن” البريطانية فإن تقنية Deepfake والمعروفة باسم تقنية التزييف العميق والتي تم إنشاؤها من خلال الذكاء الاصطناعي أتاحت انتحال الأشخاص عبر المكالمات الهاتفية. 

 

وفقا للصحيفة فإن التقنية يتم استخدامها في الوقت الحالي من قبل محتالين لانتحال شخصيات قريبة من الشخص المستهدف سرقته أو الحصول على معلوماته عن طريق محاكاة صوتهم. 

 

وأوضحت الصحيفة أنه قد يتم انتحال شخصية رئيسك في العمل، أو حد أفراد عائلتك عن طريق محاكاة الصوت، ومن خلال القيام بذلك، يمكنهم جعل الأمر مقنعًا للغاية عندما يطلبون منك تحويل أموال أو تقديم معلومات أخرى لاستخدامها في أغراض احتيالية أو ضارة.  

 

ورصدت شركة Mandiant للأمن السيبراني المملوكة لشركة جوجل بيع أول تقنية للتزييف العميق لأغراض عمليات الاحتيال في 17 أغسطس الماضي،  الأمر الذي يجعل أي شخص يمتلك هاتف ذكي أو جهاز كمبيوتر عرضة لهذا النوع من الجرائم. 

 

ونوهت شركة Mandiant أن "المحتوى الواقعي للغاية الذي تم إنشاؤه بواسطة الذكاء الاصطناعي قد يكون له تأثير مقنع أقوى على الجماهير المستهدفة من المحتوى الذي تم تصنيعه سابقًا دون الاستفادة من تقنية الذكاء الاصطناعي". 

 

وأضافت الشركة أن المحتالين يعملون بنشاط لجعل تكنولوجيا التزييف العميق "تبدو أكثر شخصية بطبيعتها"، حيث عادةً ما يكون التزييف العميق مقنعًا جدًا بحيث يمكن لأي شخص أن يقع في فخ هذا المخطط، حتى بما في ذلك الرؤساء التنفيذيين للشركات الكبيرة. 

 

وذكرت وكالة بلومبرج أمس أن أحد الرؤساء التنفيذيين لشركة بريطانية متخصصة في توفير الطاقة قام بتحويل مبلغ 249 ألف دولار عن طريق الخطأ إلى أحد المحتالين. 

 


وحدث هذا بعد أن تلقى مكالمة هاتفية تطلب منه تحويل أموال إلى أحد الموردين في المجر، لكنه كان في الواقع شخصًا يستخدم تقنية التزييف العميق لانتحال شخصية رئيس الشركة الأم في ألمانيا، وفقًا لبلومبرج.

 

مخاطر التزييف العميق تتنامى وتهدد بقوة  

 

ويهدد التنامي السريع لفيديوهات Deepfakes أو تقنية التزييف العميق الأمن السلمي والمجتمعي بشكل كبير فإلى جانب الاكتشاف الأخير لتفوق التقنية في انتحال الأشخاص عبر المكالمات الهاتفية إلا أنه قد ذكر تقرير سابق صادر عن شركة مراقبة الوسائط الرقمية Sensity، أن تقنية التزييف العميق DeepFake، استخدمت لنشر أكثر من 1400 مقطع فيديو إباحي مزيف تم نشره عبر الإنترنت، وأوضح أن عدد مقاطع الفيديو المزيفة على الإنترنت يتضاعف تقريبا كل ستة أشهر.

 

وعلى الرغم من أنه تم تطوير تقنية التزييف العميق DeepFake، لصناعة السينما أو الإعلان، ولكن يشير تقرير آخر لـ Sensity، أن ما بين 90% إلى 95% من جميع مقاطع الفيديو المزيفة على الإنترنت هي مواد إباحية، وحوالي 90٪ تشمل النساء.

 

وتشكل مقاطع التزييف العميق تهديدًا متزايدًا في جميع أنحاء العالم، حيث إنه وفقًا لـ Gartner  ستنفق الشركات ما يقرب من 188 مليار دولار على حلول الأمن السيبراني لمواجهتها، وفي الوقت الحالي، تتطلب تطبيقات الكشف عادةً تحميل مقاطع فيديو للتحليل وقد تستغرق النتائج ساعات.