Un político australiano ha amenazado con demandar a OpenAI si no corrige la información errónea proporcionada por ChatGPT. El bot afirmó en sus respuestas que el funcionario había sido encarcelado por corrupción, lo que llevó al alcalde regional a tomar medidas legales.
Si se lleva a cabo, esta sería la primera demanda por difamación en el mundo contra un sistema de inteligencia artificial de este tipo.
El alcalde de Hepburn Shire, Brian Hood, trabajó para Note Printing Australia, una subsidiaria del Banco de la Reserva de Australia, hace varios años. Recientemente, descubrió que ChatGPT lo había relacionado con un escándalo de soborno que tuvo lugar en la oficina a principios de la década de 2000.
Contrariamente a lo que se afirmaba, toda la información proporcionada por ChatGPT es falsa. De hecho, el alcalde Hood fue quien denunció ante las autoridades el pago fraudulento a funcionarios extranjeros dentro de la subsidiaria donde trabajó para ganar contratos de impresión de moneda.
ChatGPT proporcionó información falsa
Después de descubrir el error en la información proporcionada por ChatGPT, los abogados de Hood enviaron una carta de preocupación a OpenAI, exigiendo que se elimine la información falsa en un plazo de 28 días.
De no hacerlo, procederían a tomar acciones legales por difamación y por dañar la reputación del alcalde. Hasta el momento, la compañía con sede en San Francisco no ha respondido al reclamo presentado por los abogados.
En Australia, las sanciones por difamación pueden ascender hasta los $269 mil dólares. El equipo legal del alcalde Hood no tiene información precisa sobre la cantidad de personas que han tenido acceso a la información falsa que están denunciando, un elemento clave para determinar la compensación que se solicitará.
Un escándalo más a la historia de GPT
El socio de la firma de abogados que asiste a Hood, James Naughton, afirmó a Reuters que las declaraciones realizadas por ChatGPT son tan graves que podrían reclamar a OpenAI una indemnización de cerca de $180 mil dólares por difamación.
Naughton mencionó que sería un momento histórico, ya que se estaría aplicando la ley de difamación a una nueva área de la inteligencia artificial. El equipo legal de Hood basa su acusación en una consideración sobre la “mala conducta corporativa” de OpenAI.
OpenAI enfrenta varias investigaciones en diferentes partes del mundo, incluyendo una acusación por difamación en Australia. Italia ha tomado la medida más enérgica hasta ahora, bloqueando ChatGPT por recolectar datos personales ilegalmente y no contar con herramientas para verificar la edad de los usuarios.
Canadá también ha iniciado una investigación contra OpenAI por procesar información personal sin consentimiento. La generación de contenido falso o inexacto es una gran preocupación para los expertos en medio de la creciente cantidad de chatbots impulsados por IA.
Por ejemplo, una investigación de Newsguard descubrió que ChatGPT y GPT-4 generan fácilmente contenido sobre teorías conspirativas como si fuera información verdadera.