Entre la noche del viernes y el sábado, se finalizó la aprobación provisional de una legislación pionera en el ámbito de la inteligencia artificial a nivel mundial.
Primera regulación europea
Con esta medida, la presidencia europea logra cumplir uno de sus objetivos establecidos antes de concluir su mandato a finales de este año.
La gestación de este acuerdo provisional se inició el miércoles y tras extensas negociaciones que abordaron aspectos cruciales, como el alcance de la autorregulación en el sector y los puntos de intervención, así como prohibiciones, excepciones y detalles aún no divulgados.
A continuación, exploraremos las aplicaciones prohibidas, excepciones y los elementos esenciales que impone esta ley.
Aspectos fundamentales de la normativa
Se enfatiza la importancia de la transparencia en la presencia cotidiana de la inteligencia artificial. Los chatbots, deepfakes y otros contenidos generados por esta tecnología deben llevar etiquetas claras, permitiendo a los usuarios identificar fácilmente la presencia de inteligencia artificial.
Los contenidos creados mediante IA también deben llevar marcas distintivas para una identificación clara. Además, en situaciones que involucren sistemas de categorización biométrica o reconocimiento de emociones, se exigirá la notificación informada a las personas afectadas.
La clasificación de los usos y aplicaciones de la inteligencia artificial se determinará en función de su nivel de riesgo.
-
Riesgo Mínimo
– Incluye la mayoría de las aplicaciones, como sistemas de recomendación o filtros de spam.
– Se considera que estos sistemas presentan un riesgo mínimo o nulo para los derechos y la seguridad de la ciudadanía, eximiéndolos de obligaciones. No obstante, aquellos que lo deseen pueden comprometerse a seguir códigos de conducta voluntarios.
-
Alto Riesgo
– Designa aplicaciones con potencial para causar daño a la salud, seguridad, derechos fundamentales, medio ambiente, democracia y Estado de derecho.
– Ejemplos incluyen infraestructuras energéticas, dispositivos médicos, control de fronteras, administración de justicia y sistemas biométricos.
– Las aplicaciones de alto riesgo deben cumplir requisitos rigurosos, como registro de actividad, documentación detallada, información clara al usuario, supervisión humana y altos estándares de robustez, precisión y ciberseguridad.
– La ciudadanía tiene el derecho de presentar quejas sobre estos sistemas y recibir explicaciones sobre decisiones basadas en inteligencia artificial de alto riesgo que afecten a sus derechos.
-
Riesgo Inaceptable
– Incluye aplicaciones que se consideran una amenaza clara a los derechos fundamentales de las personas.
– Ejemplos son aquellas que manipulan el comportamiento humano para eludir el libre albedrío, juguetes que fomentan comportamientos peligrosos, sistemas de puntuación social, vigilancia policial predictiva y algunos usos biométricos, como en el ámbito laboral o la vigilancia.
– Estas aplicaciones de inteligencia artificial serán prohibidas debido a su riesgo inaceptable.
¿Qué actividades se prohíben para las IA´s?
Aquí se detallan las aplicaciones de inteligencia artificial que están prohibidas o sujetas a una regulación estricta debido a su amenaza para los derechos individuales, la ciudadanía y la democracia. Estas aplicaciones se enfrentan a la prohibición:
-
Sistemas de Categorización Biométrica
– Incluye aquellos que emplean características sensibles como credo, religión, orientación sexual o raza en la categorización biométrica.
-
Sistemas de Extracción para Bases de Datos
– Se refiere a aplicaciones que recopilan información indiscriminadamente a través de internet, televisión o circuitos cerrados de televisión (CCTV) para alimentar bases de datos.
-
Reconocimiento de Emociones en el Entorno Laboral y Educativo
– Apunta a sistemas que realizan el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
-
Social Scoring (Puntuación Social)
– Incluye sistemas que asignan una puntuación social basada en el comportamiento social o características personales.
-
Manipulación del Comportamiento Humano por Parte de la IA
– Hace referencia a sistemas de inteligencia artificial diseñados para alterar la libre voluntad del ser humano.
-
Explotación de Vulnerabilidades Humanas por la IA
– Engloba sistemas de inteligencia artificial que aprovechan vulnerabilidades relacionadas con la edad, discapacidad, situación social o económica.
¿Cuándo será efectiva esta legislación?
Este acuerdo provisional representa un avance significativo en un trayecto que se ha gestado durante más de dos años y que aún continúa su desarrollo. La IA Act tuvo sus inicios en la primavera de 2021, según recordó Ursula Von der Leyen ayer.
Posteriormente, los estados miembros y el Parlamento Europeo deberán ratificar el texto final antes de que la legislación entre en vigor.
Este proceso, previsiblemente, retrasará la aplicación de la ley hasta el año 2026, aunque algunas de sus secciones podrían estar operativas antes de esa fecha.