La clonación de voz mediante Inteligencia Artificial se convierte en la nueva herramienta de los ciberdelincuentes para realizar fraudes millonarios, engañando a las víctimas con voces de familiares y amigos en situaciones de emergencia ficticias.

Publicado por: Redacción Tendencias
En un alarmante giro de la tecnología, la Inteligencia Artificial (IA) se está utilizando para fraudes millonarios a través de la clonación de voz. Un reciente estudio del Reino Unido revela que el 46 % de los adultos no son conscientes de esta sofisticada modalidad de estafa, en la que los ciberdelincuentes pueden clonar la voz de una persona con apenas tres segundos de audio, logrando resultados casi idénticos a la voz original. Esta tecnología ha permitido que las víctimas crean que están hablando con un ser querido, lo que facilita robos y extorsiones a nivel global, incluyendo un fraude millonario en Emiratos Árabes Unidos, donde los estafadores lograron robar 51 millones de dólares australianos mediante la clonación de voz de un alto ejecutivo. Lea también: Alerta en Bucaramanga: advierten sobre estafa con falsos arriendos de casas
Utilizando herramientas de clonación y tecnología de “deepfake”, los estafadores no replican palabras exactas sino patrones únicos de frecuencia y tono de la voz. Rodrigo Ochoa, experto en tecnología y consultado por Willax Televisión de Perú, explica que esta falsificación permite generar discursos completos a partir de la voz clonada: “Utilizan el deepfake, clonan no solo las palabras sino el tono, frecuencia y modulación, lo cual facilita que la IA reproduzca mensajes completos”. Así, los ciberdelincuentes logran engañar a las personas con mensajes de voz donde se hacen pasar por familiares o amigos en situaciones de emergencia.
El reporte cita estafas extendidas por América del Norte, Europa y Asia, en las que las voces clonadas se utilizan para simular secuestros o accidentes, extorsionando a los destinatarios. El proceso inicia con una llamada para grabar la voz, y luego, mediante la IA, se analiza la frecuencia y modulación, generando una voz indistinguible de la original.
La IA usada por los delincuentes pic.twitter.com/s5w18SBpZR
— Actualidad Viral (@ActualidaViral) October 29, 2024
Los resultados de la clonación han sido devastadores: una de cada cuatro personas en una encuesta global realizada por McAfee en 2023 indicó que había sufrido una estafa de este tipo o conocía a alguien que había sido víctima. Además, el 77 % de quienes fueron engañados perdieron dinero, con sumas que oscilaron entre los 500 y los 15,000 dólares.
Investigadores de McAfee Labs encontraron que existen más de una docena de herramientas de clonación de voz accesibles gratuitamente en línea, lo que permite a los ciberdelincuentes acceder fácilmente a este tipo de tecnología. Con tan solo un breve clip de audio, los estafadores pueden generar clones de voz de una precisión del 85 al 95 %, haciendo difícil la distinción entre una voz real y una falsa.
Para protegerse, los expertos recomiendan establecer palabras clave entre familiares y amigos, verificar siempre la fuente de llamadas de emergencia, revisar quiénes tienen acceso a contenido en redes sociales y limitar las conexiones en línea. Estos pasos, junto con la precaución de nunca enviar dinero sin confirmar la veracidad de las solicitudes, son medidas esenciales para evitar caer en estas estafas.
La clonación de voz mediante IA es uno de los desarrollos más recientes en fraudes cibernéticos, y aunque representa una innovación tecnológica, también plantea una amenaza creciente que requiere tanto conciencia pública como medidas de seguridad adicionales.















