Surgen más peligros por la creación de imágenes mediante Inteligencia Artificial
En esta ocasión los niños son los afectados por esta tecnología.
La creciente proliferación de imágenes de abuso sexual infantil en Internet ha alcanzado niveles alarmantes, y según advirtió esta semana la Internet Watch Foundation con sede en el Reino Unido, la situación podría empeorar drásticamente si no se toman medidas con respecto a las herramientas de inteligencia artificial que generan imágenes ultrarrealistas.
Usos indebidos de la Inteligencia Artificial
En un informe reciente, la Internet Watch Foundation hace un llamado urgente a los gobiernos y a los proveedores de tecnología para que tomen medidas rápidas antes de que una avalancha de imágenes de abuso sexual infantil generadas por IA sobrepase a los investigadores encargados de hacer cumplir la ley.
Este aumento desmedido podría ampliar significativamente el grupo de posibles víctimas, subrayando la necesidad crítica de acciones preventivas y regulaciones efectivas.
En una situación sin precedentes en Corea del Sur, un hombre fue sentenciado a dos años y medio de prisión en septiembre por el uso de inteligencia artificial para crear imágenes virtuales de abuso infantil en formato 360°, según informó el Tribunal de Distrito de Busan, ubicado en el sureste del país.
Los peligros de generar imágenes mediante una IA
En una escuela del suroeste de España, las autoridades policiales han estado investigando la presunta utilización de una aplicación telefónica por parte de adolescentes para manipular imágenes de sus compañeros de clase, presentándolos desnudos, aunque estuvieran completamente vestidos.
Este informe destaca un aspecto sombrío de la carrera por desarrollar sistemas de inteligencia artificial generativa que permiten a los usuarios describir verbalmente lo que desean producir, ya sea en correos electrónicos, obras de arte o videos innovadores, y luego ver cómo el sistema materializa esas descripciones.
Si no se toman medidas adecuadas, la creciente marea de imágenes falsas de abuso sexual infantil amenaza con abrumar a los investigadores dedicados a rescatar a niños que, en realidad, son personajes virtuales. Además, existe el riesgo de que los perpetradores utilicen estas imágenes para planificar y coaccionar a nuevas víctimas.
Imágenes utilizadas de internet
Sexton destacó que los analistas de la Internet Watch Foundation (IWF) identificaron la presencia de rostros de niños famosos en línea, junto con una “demanda masiva para la creación de más imágenes de niños que ya han sido abusados, posiblemente hace años”.
“Están utilizando contenido auténtico preexistente para generar nuevo material destinado a estas víctimas”, comentó Sexton. “La magnitud de esto es impactante y preocupante”.
Sexton reveló que su organización benéfica, centrada en la lucha contra el abuso sexual infantil en línea, comenzó a recibir informes sobre imágenes abusivas generadas por inteligencia artificial a principios de este año.
Imágenes explícitas de niños por IA
Esta situación llevó a una exhaustiva investigación sobre los foros de la llamada “web oscura”, una porción de Internet alojada dentro de una red cifrada y accesible solo mediante herramientas que garantizan el anonimato.
Los analistas de la Internet Watch Foundation (IWF) descubrieron que, en estos foros oscuros, los abusadores compartían consejos y se asombraban de la facilidad con la que podían convertir las computadoras de sus hogares en auténticas fábricas para generar imágenes sexualmente explícitas de niños de todas las edades.
El informe de la Internet Watch Foundation (IWF) reconoce los desafíos implícitos en la tarea de criminalizar las herramientas de generación de imágenes de inteligencia artificial, incluso aquellas “afinadas” específicamente para producir contenido abusivo.
Prácticas ilegales en muchos países
Aunque la mayoría de las imágenes de abuso sexual infantil generadas por inteligencia artificial serían consideradas ilegales según las leyes en vigor en los EE. UU., el Reino Unido y otros lugares, aún queda por determinar si las autoridades cuentan con las herramientas adecuadas para abordar este problema de manera efectiva.
Un funcionario de la policía británica comentó que el informe destaca el impacto ya observado por los agentes que trabajan arduamente para identificar a las víctimas.