slug logo image
14 Marzo, 2023

Lo último de los estafadores: simular la voz de tus familiares con una IA

ciberseguridad

blog post details image

Los avances en inteligencia artificial suponen buenas noticias en ocasiones, pero también malas como ocurre cuando utilizan tácticas para estafarte.
 

Hoy quiero hablarte de las “deepfakes de audio” y como estas son cada vez más realistas.

 

Las deepfakes son una técnica de inteligencia artificial que permite crear vídeos, imágenes o audios manipulados, con el fin de engañarte haciéndote creer que lo que estás viendo o escuchando es real.

 

Basta con imitar la voz o el rostro de personas de confianza para que caigas en la trampa.

 

En el caso de las deepfake de audio, los estafadores utilizan una tecnología de síntesis de voz basada en inteligencia artificial para grabar y manipular la voz de alguien para que parezca auténtica.

 

Luego, llaman a la víctima haciéndose pasar por un familiar o amigo que está en una situación de emergencia y necesita ayuda económica inmediata.

 

Solicitan a la víctima que realice una transferencia bancaria o envíe dinero en efectivo para resolver la situación.

 

Esto lo hacen a través de software de síntesis de voz como ElevenLabs, con este programa los estafadores pueden replicar voces.
 

Para ello, solo necesitan audios cortos de los seres queridos de las víctimas y realizar una llamada usando el sistema para pedir dinero urgente.
 

Actualmente es una de las últimas tendencias en el ámbito de la estafa telefónica.

 

Si hace unos años se necesitaban muchas horas de muestra para clonar sintéticamente una voz, hoy basta un vídeo de TikTok de apenas medio minuto para lograr copias bastante logradas…
 

Incluso si la víctima es una persona que tenga cuidado y conozca la existencia de estas prácticas, las deepfakes muestran una tecnología avanzada y sofisticada. 

 

Esto hace que sea cada vez más difícil distinguir entre una grabación auténtica y una manipulada.

 

Pero… ¿Cómo puedes percibir este tipo de estafa telefónica?

 

Existen algunas señales que pueden indicar que una grabación de voz o una llamada telefónica son falsas.

 

Algunas son:

  • Errores en la pronunciación o en el tono de voz de la persona que llama.

 

  • Una voz que suena robótica o artificial, con una entonación extraña.

 

  • Una voz que no coincide con la edad o el género de la persona que dice ser.

 

  • Dificultades para entender lo que dice la persona que llama, como si estuviera hablando en un idioma que no se domina o en un dialecto desconocido.

 

Siempre se debe tener precaución al recibir llamadas de desconocidos o de personas que solicitan información personal o financiera.
 

Y, desde luego, te recomiendo que compruebes la identidad de la persona que llama antes de proporcionar cualquier tipo de información o realizar algún pago.
 

En caso de duda, se puede solicitar que la persona llame de nuevo más tarde, o intentar contactar con ella a través de otras vías, como correo electrónico o redes sociales, para verificar su identidad.
 

Si alguien te llama pidiendo ayuda económica, verifica su identidad haciendo preguntas personales que sólo la persona que dice ser debería saber.

 

Y si crees que has sido víctima de una deepfake o que alguien está utilizando tu identidad de manera fraudulenta, es importante que lo informes a las autoridades y tomes medidas para protegerte.

 

En Logic Solutions podemos ayudarte a ti o a tu empresa a protegerte de diversas formas.
 

Si quieres saber cómo podemos preservar tus datos, mejorar la seguridad de tu sitio web o crear un proyecto de software, contáctanos sin compromiso.
 

client imageclient imageclient imageclient imageclient imageclient imageclient image