recent
أخبار ساخنة

تزييف الصوت بالذكاء الاصطناعي.. نصائح تحميك من الاحتيال

 

تزييف الصوت بالذكاء الاصطناعي.. نصائح تحميك من الاحتيال
تزييف الصوت بالذكاء الاصطناعي.. نصائح تحميك من الاحتيال

عليك أن تكون حذرًا جدًا عند استقبال المكالمات الهاتفية الطارئة، خاصةً إذا كانت المكالمة تطلب منك تحويل أموال أو تقديم معلومات حساسة، حتى لو كانت الصوت يبدو وكأنه صوت أحد أقربائك أو أصدقائك. في عصر الذكاء الاصطناعي، يُمكن تزوير الأصوات بسهولة، وهذا يشكل تهديدًا يحيط بالناس في كل جوانب حياتهم.


في الوقت الحالي، ينتشر نوع من الاحتيال يُعرف باسم "احتيال التزييف" أو "التلاعب الصوتي" باستخدام تطبيقات الذكاء الاصطناعي. ومع ذلك، يُمكنك تجنب الوقوع في هذه الفخاخ إذا كنت على دراية بتلك المستجدات، واتبعت النصائح التي يقدمها خبراء الأمن السيبراني وتكنولوجيا المعلومات.


في مارس الماضي، عرضت شركة "أوبن إيه آي"، المتخصصة في الذكاء الاصطناعي، أداة تُعرف باسم "فويس إنجين" أو "محرك الصوت". تسمح هذه الأداة بإعادة إنتاج صوت شخص من خلال عينة صوتية قصيرة. وتم اختبار هذه الأداة على نطاق صغير، ووجد أنها قادرة على إعادة إنتاج الصوت بشكل دقيق.


ومن المعروف أن القدرة على توليد أصوات تشبه أصوات البشر تشكل خطرًا كبيرًا، خاصةً في فترات حساسة مثل فترات الانتخابات. ولذلك، تعمل "أوبن إيه آي" بالتعاون مع شركاء من حكومات ووسائل إعلام ومجالات أخرى لتقديم حلول لهذه المشكلة والحد من تأثيرها السلبي.


تعليق الخبراء على هذا الموضوع يشير إلى أنه أصبح من السهل جدًا استخدام التزييف الصوتي باستخدام الذكاء الاصطناعي. ويُنتج هذا التزييف عن طريق تقنيات الذكاء الاصطناعي لتقليد أصوات معروفة أو مأخوذة من وسائل التواصل الاجتماعي.


الاحتيال الصوتي يشمل غالبًا الاحتيال على الضحايا من خلال طلبات مالية عاجلة، حيث يُدعى المتصل أنه شخص معروف للضحية. هذه الاستخدامات السلبية للتزييف الصوتي تُؤثر على ثقة الأفراد في البيئة الرقمية وتُعرّض الناس للخطر.

google-playkhamsatmostaqltradent