El deportista comunicó al público de sus redes sociales que su imagen fue suplantada con inteligencia artificial.

Publicado por: Diego López
El avance de la inteligencia artificial puede ser bastante beneficiosos para la sociedad, pero también puede ser bastante perjudicial. Este es el caso el ex tenista Rafael Nadal, a quien le suplantaron su imagen y voz por medio de estas herramientas tecnológicas.
La intención de este caso era intentar estafar a los usuarios con supuestos consejos de inversión monetaria con grandes ganancias, por medio de publicidad engañosa.
Hola a todos,
— Rafa Nadal (@RafaelNadal) September 23, 2025
Comparto este mensaje de alerta, algo poco habitual en mis redes, pero necesario.
Hemos detectado junto a mi equipo que circulan en algunas plataformas vídeos falsos generados por inteligencia artificial, en los que aparece una figura que imita mi imagen y voz.
En…
Casos como este han ido en incremento conforme la inteligencia artificial se actualiza y perfecciona su trabajo, lo que hace parecer bastante realistas las imágenes que produce, por lo que llega a engañar a las personas.
En Colombia se han presentado casos de periodistas como María Lucía Fernández, Maritza Aristizábal y Andrés Montoya, que han sido notificados de videos, supuestamente suyos, promocionando productos o servicios que resultan ser mentira, todo esto usando videos alterados. Además: Periodista fue suplantado: compraron carro a su nombre

Tenga en cuenta como evitar dichas estafas con inteligencia artificial
Los expertos en ciberseguridad aconsejan desconfiar de todos los vídeos sobre supuestas ofertas únicas de inversión que aparezcan en redes sociales. También conviene detenerse a pensar si tiene sentido que figuras públicas como Rafael Nadal u otros personajes reconocidos estén promocionando esa clase de servicios.
Algunas claves para que los usuarios puedan saber si están frente a un video generado o alterado con inteligencia artificial es observar atentamente la sincronización entre el audio y los movimientos faciales. Si hay desajustes evidentes entre lo que se escucha y lo que se ve, es motivo para sospechar.
Puede leer: ¡Pilas! Lo pueden estar suplantando con una ‘identidad sintética’ para pedir préstamos
Otro de los aspectos es la calidad del audio, pues las voces generadas por IA suelen sonar poco naturales, con entonaciones extrañas o cambios en el acento. Además hay que revisar quién realiza dichas publicaciones, ya que la fuente del contenido es un factor crucial para verificar su credibilidad. Sino viene de perfiles oficiales y verificados es también alerta de un posible engaño.














