La modalidad de fraudes telefónicos ha evolucionado con la incorporación de inteligencia artificial (IA) por parte de delincuentes cibernéticos. Esta táctica de engaño ha despertado una preocupación global debido a su nivel de sofisticación y la efectividad para engañar a las personas.
De acuerdo con especialistas consultados por El Tiempo, los estafadores obtienen grabaciones de audio o video de sus víctimas desde plataformas de redes sociales u otras fuentes públicas. Luego, utilizan herramientas de IA para replicar sus voces y así cometer sus fechorías con mayor éxito.
Plataformas como Lyrebird y Descript han posibilitado la creación de voces sintéticas precisas, originalmente concebidas con propósitos legítimos pero ahora explotadas por los ciberdelincuentes. Según Infobae, los perpetradores construyen perfiles falsos de contactos cercanos de las víctimas para simular llamadas con voces clonadas mediante IA.
Un informe de McAfee, referenciado por Infobae, indica que el 77% de las personas estafadas acaban enviando dinero producto de estos fraudes, subrayando la efectividad de esta técnica. Por consiguiente, es vital adoptar una postura de cautela frente a requerimientos inesperados de información personal o transferencias monetarias, además de concienciar a los seres queridos sobre este tipo de engaños con el fin de prevenirlos.
Google ha implementado una característica con IA denominada Gemini Nano que puede detectar comportamientos sospechosos durante llamadas, advirtiendo así a los usuarios para prevenir ser víctimas de estafas, según reporta Infobae.
Diversas plataformas que emplean IA como Murf, Resemble y ElevenLabs están adoptando medidas adicionales de seguridad para disuadir el empleo malintencionado de sus tecnologías, según informa Business Insider.