تحذيرات أمنية حول استخدام الصوت الاصطناعي في جرائم الاحتيال
محتالون يستخدمون الذكاء الاصطناعي لتقليد الأصوات وخداع الضحايا
أطلق خبراء في الأمن السيبراني تحذيرات بشأن تصاعد ظاهرة الاحتيال باستخدام تقنية الصوت الاصطناعي، وذلك في العديد من دول العالم.
محتالون يستخدمون الذكاء الاصطناعي لتقليد الأصوات وخداع الضحايا
وبحسب ما ذكرته تقارير تقنية، فقد جاء هذه التحذيرات بعد تكرار حوادث احتيال تضمنت تقليد أصوات أشخاص مقربين من الضحايا، مثل أفراد الأسرة أو الأصدقاء أو الشركاء في الأعمال.
وبينت أن المحتالين يعتمدون على هذه التقنية الذكية، لإقناع الضحايا بوجود حاجة ملحة لإرسال الأموال، أو تقديم معلومات حساسة.
وقال الخبراء إن المحتالين يعتمدون على التكنولوجيا الحديثة لتضليل الضحايا، مستهدفين بشكل خاص كبار السن الذين يكونون أكثر عرضة لهذه الهجمات.
وأشارت التقارير إلى أنه في بعض الحالات، يتلقى الضحايا اتصالات بصوت مزيف لشخصيات معروفة لديهم، مثل الزوجة أو الأبناء أو مسؤولين يثقون بهم، ويتم ادعاء وجود حالات طارئة تستدعي تحويل الأموال على الفور، أو تقديم معلومات بنكية بحجة حل مشاكل مزعومة.
وأعرب الخبراء عن قلقهم من ازدياد انتشار هذه الأساليب الاحتيالية، حيث أصبحت التكنولوجيا المتقدمة تسهم في جعل القصص المفبركة التي يقدمها المحتالون أكثر إقناعاً.
وأوضحوا أن الضحايا، تحت ضغط القلق والخوف، غالباً ما يندفعون لتنفيذ الطلبات، دون التحقق من مصداقية المعلومات.
ولفتت التقارير إلى أنه من هذا المنطلق، وجه الخبراء نصائح مهمة تتعلق بضرورة تجنب إرسال أموال، أو تقديم معلومات بنكية، بناء على مكالمات هاتفية غير موثوقة.
كما دعوا إلى أهمية التواصل المباشر مع الأشخاص المعنيين، للتأكد من صحة الطلبات قبل اتخاذ أي خطوة.
بالإضافة إلى ذلك، شدد الخبراء على أهمية زيادة الوعي المجتمعي بهذه الأنماط من الاحتيال، كوسيلة فعالة لحماية الأفراد من الوقوع في شراك المحتالين.