Inteligencia Artificial falsifica voces y amenaza nuestra identidad

Las voces sintéticas ya no se limitan a los asistentes virtuales. La inteligencia artificial (IA) permite ahora clonar la voz de cualquier persona con gran realismo, abriendo la puerta a nuevas y sofisticadas formas de fraude.

Suplantación de identidad mediante IA

Esta técnica, conocida como suplantación de identidad por clonación de voz, utiliza modelos de IA generativa para analizar y copiar las características únicas de la voz de una persona, como el tono, el ritmo, las inflexiones y la pronunciación.

A partir de muestras de voz cortas, incluso de unos pocos segundos, se puede entrenar un modelo de IA para imitar la voz con gran precisión.

¿Cómo se utiliza la clonación de voz para el fraude?

Los delincuentes utilizan voces clonadas para diversos fines fraudulentos, como solicitar dinero o información confidencial.

Los estafadores pueden hacerse pasar por familiares, amigos o incluso representantes de instituciones financieras para solicitar dinero o información personal sensible.

Del mismo modo, con la voz clonada los delincuentes pueden autorizar transferencias bancarias o compras con tarjeta de crédito. En llamadas de emergencia pueden utilizar voces clonadas para fingir un accidente o secuestro, exigiendo un rescate a cambio.

¿Cómo protegerse de la clonación de voz?

Si bien la clonación de voz representa una amenaza real, existen medidas que podemos tomar para protegernos:

Si detectas algo sospechoso, como intentos de clonación de tu voz o llamadas fraudulentas, repórtalo de inmediato a las autoridades.

La clonación de voz es una amenaza emergente que requiere atención y medidas preventivas. Al estar alerta y siguiendo los consejos anteriores, puede reducir el riesgo de ser víctima de este tipo de fraude.

Fuente: CBS

Salir de la versión móvil