La inteligencia artificial (IA) está siendo empleada en llamadas que buscan engañar a la gente mediante la imitación de voces de personas conocidas. Estas llamadas hacen uso de lo que se denomina “IA generativa”, que se refiere a sistemas con la capacidad de generar texto, imágenes o cualquier otro tipo de contenido, incluso vídeos, a partir de las indicaciones de un usuario.
Llamadas y voces falsas
En los últimos años, los deepfakes (falsificaciones profundas) han adquirido una notoriedad considerable debido a varios incidentes de gran repercusión. Entre ellos, destacó el uso de la imagen de la actriz británica Emma Watson en una serie de anuncios sugestivos que se propagaron en Facebook e Instagram.
Otro caso relevante fue el video del año 2022, ampliamente compartido y posteriormente desmentido, donde el presidente ucraniano Volodymyr Zelensky aparentaba instar a los ucranianos a “deponer las armas”.
En la actualidad, la tecnología para crear audios falsos, es decir, copias realistas de la voz de una persona, está ganando cada vez más popularidad y accesibilidad.
Para lograr una copia realista de la voz de alguien, se requiere una cantidad significativa de datos para entrenar al algoritmo. Esto implica disponer de numerosas grabaciones de audio que contengan la voz de la persona en cuestión.
Es importante destacar que cuanto más abundantes sean los ejemplos de la voz de la persona proporcionados al algoritmo, mayor será la calidad y persuasión de la copia final.
Hoy en día, muchos de nosotros compartimos detalles de nuestras vidas cotidianas en internet, lo que implica que los datos de audio necesarios para crear una réplica realista de una voz podrían encontrarse fácilmente disponibles en las redes sociales y otras plataformas digitales.
Tus datos en internet no son privados…
Sin embargo, ¿qué sucede una vez que la copia se encuentra en circulación? Con la existencia de un algoritmo de deepfake, cualquier individuo que posea los datos adecuados podría hacer que “tú” digas lo que deseen. En la práctica, esto puede ser tan simple como redactar un texto y hacer que el ordenador lo reproduzca en voz alta, como si fuera tu propia voz.
Esta posibilidad aumenta significativamente el riesgo de propagación de desinformación. Se podría emplear para intentar influir en la opinión pública a nivel internacional o nacional, tal como se ha evidenciado con los “videos” de Zelensky.
No obstante, la ubicuidad y disponibilidad de estas tecnologías también generan desafíos importantes a nivel local, especialmente en la creciente tendencia de las “llamadas con IA para estafar”.
Muchos de nosotros hemos recibido llamadas fraudulentas o de phishing que nos alertan, por ejemplo, sobre una supuesta comprometida seguridad de nuestra computadora y nos instan a iniciar sesión de inmediato, lo que podría dar al perpetrador acceso a nuestros datos.
Frecuentemente, resulta bastante sencillo detectar los intentos de engaño, especialmente cuando la persona que realiza la llamada hace preguntas inusuales o solicita información que una organización legítima no requeriría.
Sin embargo, ahora, imaginemos que la voz al otro lado del teléfono no es la de un desconocido, sino que suena idéntica a la de un amigo o un ser querido. Esto introduce un nivel completamente nuevo de complejidad y pánico para el desafortunado destinatario.
Casos recientes de este engaño
Una historia reciente, informada por la cadena CNN, resalta un incidente en el que una madre recibió una llamada desde un número desconocido. Cuando contestó el teléfono, se encontró con la voz de su propia hija. La hija, aparentemente, había sido secuestrada y estaba pidiendo un rescate a su madre.
De hecho, la niña se encontraba completamente a salvo. Los estafadores habían creado una falsificación de su voz para llevar a cabo su engaño.
Lamentablemente, este no es un incidente aislado, y esta estafa ha ocurrido con diferentes variantes. Una de ellas involucra un supuesto accidente automovilístico, donde la presunta víctima llama a su familia para solicitar dinero con el pretexto de superar la situación generada por el accidente.
Toma precauciones
Si recibes una llamada inesperada de un ser querido pidiéndote dinero o haciendo solicitudes que parecen fuera de lugar, es importante que tomes precauciones. Antes de actuar, te recomendamos devolver la llamada o enviar un mensaje de texto para confirmar que realmente estás hablando con esa persona.
A medida que las capacidades de la IA siguen expandiéndose, las fronteras entre la realidad y la ficción se vuelven más difusas. Es poco probable que podamos detener el avance de esta tecnología. Por lo tanto, la prudencia y la cautela se vuelven esenciales para protegernos ante posibles engaños y manipulaciones.