تناولت المقالة الاحتيال الجديد الذي يتم عبر تطبيقات الذكاء الاصطناعي والذي يُسمى “احتيال التلاعب الصوتي”، حيث يقوم الاحتالون باستخدام تطبيقات الذكاء الاصطناعي لتقليد أصوات معروفة وخداع الأشخاص بها. وقد عرضت شركة “أوبن إيه آي” أداة تستخدم لاستنساخ الصوت، وقد دعا الخبراء إلى توخي الحذر وعدم الثقة في المكالمات الهاتفية التي تتلقاها لتجنب الوقوع في هذا النوع من الاحتيال.
وأوضح الخبيران محمد خليف وتامر محمد خطورة هذا النوع من الاحتيال، حيث يمكن للمحتالين استخدام التلاعب الصوتي للحصول على معلومات شخصية أو لإيهام الضحايا بأمور طارئة تتطلب دفع مبالغ مالية. وتشير التقارير إلى حالات احتيال تضرر منها أشهر الشخصيات في العالم، مما يجعل تلك التقنيات تشكل تهديدا حقيقيا على الأمن السيبراني وثقة المستخدمين في العالم الرقمي.
وأخيرا، قدم الخبراء نصائح للوقاية من الاحتيال بواسطة التلاعب الصوتي، منها توخي الحذر في التعامل مع المكالمات الهاتفية وعدم تقديم معلومات شخصية أو بنكية عبر الهاتف بدون التأكد من هوية الطرف الآخر. ويُنصح أيضا بعدم الدخول إلى روابط غير معروفة أو الموافقة على شروط برامج دون التأكد من صحتها، للحفاظ على سلامة البيانات والمعلومات الشخصية.