La Unión Europea (UE) ha recibido una queja por parte de Noyb, una organización sin fines de lucro, en nombre de un denunciante anónimo que se describe como figura pública.
Errores graves en la plataforma de ChatGPT
Esta denuncia alega que ChatGPT está generando información incorrecta sobre personas, una falla común en los modelos de inteligencia artificial conocida como “alucinación”.
Esta queja se basa en el Reglamento General de Protección de Datos (RGPD), una ley que protege la privacidad y los datos personales de los ciudadanos de la UE. El RGPD establece que las empresas deben procesar y proteger los datos de las personas de manera responsable, y que estas tienen derecho a la corrección de datos incorrectos.
Noyb argumenta que OpenAI no está cumpliendo con esta obligación en el caso de ChatGPT, ya que el chatbot no puede corregir de manera precisa la información incorrecta que genera sobre las personas. OpenAI, por su parte, ha declarado que es técnicamente imposible corregir la información incorrecta generada por el chatbot.
¿Qué se le está reclamando a OpenAI?
Maartje de Graaf, abogado de protección de datos de Noyb, comenta sobre la denuncia:
Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede tener consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre personas.
Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales y no al revés.
¿Por qué OpenAI no puede “arreglar” ChatGPT?
La complejidad del sistema ChatGPT y la falta de transparencia en el origen de la información que utiliza son los principales obstáculos para corregir la información incorrecta. Aunque OpenAI ha intentado implementar filtros y mecanismos para bloquear la información falsa, es difícil hacerlo al 100%.
Además, no se sabe con exactitud de dónde obtiene la información ChatGPT que utiliza para responder a las preguntas. Esto dificulta aún más la identificación y corrección de datos erróneos.
¿Qué consecuencias podría enfrentar OpenAI?
Las sanciones por incumplimiento del RGPD pueden alcanzar hasta el 4% de la facturación anual global de una empresa. Si bien esto no representaría un gran impacto financiero para OpenAI, podría acarrear la obligación de realizar cambios significativos en ChatGPT para cumplir con la legislación europea.
Este caso pone de manifiesto los desafíos que enfrentan las empresas que desarrollan modelos de inteligencia artificial que procesan datos personales.
Es importante destacar que la precisión, transparencia y responsabilidad son aspectos cruciales para garantizar el cumplimiento de las regulaciones y proteger los derechos de los usuarios.