El reciente lanzamiento de GPT-4o ha generado un gran revuelo en el mundo de la inteligencia artificial (IA). Si bien algunos lo ven como un paso más en la evolución de esta tecnología, otros temen que nos acerque peligrosamente a un punto de no retorno.
Experto en ética renuncia a OpenAI
Daniel Kokotajlo, Doctor en filosofía y miembro del equipo de ética de OpenAI, ha decidido abandonar la empresa.
Su principal motivo es la desconfianza en la capacidad de la compañía para manejar responsablemente el desarrollo de la IA, especialmente en lo que respecta a la consecución de la Inteligencia Artificial General (AGI).
Kokotajlo aboga por una pausa en el desarrollo de estas tecnologías para evaluar su impacto social y establecer marcos éticos claros.
in regards to recent stuff about how openai handles equity:
we have never clawed back anyone’s vested equity, nor will we do that if people do not sign a separation agreement (or don’t agree to a non-disparagement agreement). vested equity is vested equity, full stop.
there was…
— Sam Altman (@sama) May 18, 2024
Dilemas éticos y la carrera por la IA
La preocupación por el avance desmedido de la IA no es exclusiva de Kokotajlo. Otros expertos, como Elon Musk, han expresado su inquietud y han pedido cautela en el desarrollo de estas tecnologías.
Sin embargo, la presión por la innovación y la rentabilidad empuja a las empresas a seguir adelante, incluso a costa de posibles riesgos. Casos como el lanzamiento de Sora por parte de OpenAI, a pesar de las dudas sobre su seguridad, ejemplifican este dilema.
¿Estamos creando nuestra propia destrucción?
Algunos científicos plantean la hipótesis de que la IA podría convertirse en una amenaza para la humanidad si supera nuestra inteligencia. La idea no es descabellada, ya que la historia nos ha mostrado cómo el uso irresponsable de la tecnología puede tener consecuencias nefastas.
En contraste con las voces que alertan sobre los peligros de la IA, el CEO de Nvidia, Jensen Huang, ha hecho una predicción audaz: la AGI llegará en los próximos cinco años. Esta predicción ha generado controversia, ya que no existe consenso sobre la viabilidad o el plazo para alcanzar este hito tecnológico.
El futuro de la IA está plagado de incertidumbres y desafíos. Si bien esta tecnología tiene un enorme potencial para mejorar nuestras vidas, también existen riesgos que no podemos ignorar.
Es crucial que la comunidad científica, las empresas y los gobiernos trabajen juntos para establecer un marco ético sólido que guíe el desarrollo y la aplicación de la IA, asegurando que su progreso beneficie a toda la humanidad.