close menu

دراسة: تصاعد عمليات الاحتيال الصوتي باستخدام الذكاء الاصطناعي

No Image

كشفت دراسة جديدة عن أن تقنية الذكاء الاصطناعي ساهمت في تصاعد عمليات استنساخ الأصوات، باستخدام مقتطف صوتي مدته 3 ثوانٍ للضحية.

وأشارت الدراسة إلى أن واحدًا بين كل 4 بريطانيين تعرّض للاحتيال بهذه الطريقة، بعدما يسرق الذكاء الاصطناعي ملفًا مخزنًا على هواتفهم، ويستخدم هذا الملف في تقليد صوت الضحية لإقناع الأهل والأصدقاء بأنهم في مأزق وبحاجة ماسة إلى المال.

وتكبد ثلث الضحايا أكثر من ألف جنيه إسترليني، فيما أشار تقرير صادر عن شركة الأمن السيبراني البريطانية، وأكد التقرير أن هذه العملية تتم دون أن يتحمل الجاني أي مصاريف.

ويقود الخبراء والأكاديميون والرؤساء من جميع أنحاء صناعة التكنولوجيا الدعوات لتشديد التنظيم على الذكاء الاصطناعي؛ لأنهم يخشون أن يخرج القطاع عن السيطرة.

وقال تقرير McAfee عن "الدجال الاصطناعي" إن استنساخ صوت شخص ما أصبح "أداة قوية في ترسانة مجرمي الإنترنت'' - وليس من الصعب العثور على الضحايا.

أضف تعليقك
paper icon
أهم المباريات