Google elimina veto a uso de IA para desarrollo de armas y vigilancia ¿Riesgo o necesidad?
Google actualiza su política de ética en IA
Google ha modificado su política de ética en inteligencia artificial, eliminando compromisos previos que prohibían el uso de su tecnología para el desarrollo de armas y sistemas de vigilancia.
Anteriormente, la compañía incluía en sus principios una cláusula que descartaba aplicaciones destinadas a causar daño o que superaran los estándares internacionales de vigilancia. Sin embargo, este lenguaje ha desaparecido en la versión actualizada de su política, según se observa en el archivo de Internet Wayback Machine.
Este cambio se produce en un momento en que la carrera por la inteligencia artificial se ha intensificado, especialmente desde el lanzamiento de ChatGPT por OpenAI en 2022. Aunque el uso de la IA ha crecido exponencialmente, las regulaciones y leyes sobre su transparencia y ética no han avanzado al mismo ritmo.
Google, que publicó por primera vez sus Principios de IA en 2018, parece estar relajando algunas de las restricciones que se autoimpuso en sus inicios.
En 2018, la compañía incluso rechazó un contrato de $10,000 millones de dólares con el Pentágono para servicios de computación en la nube, argumentando que no se alineaba con sus principios éticos.
En aquel momento, más de 4,000 empleados firmaron una petición exigiendo que Google no participara en el desarrollo de tecnología bélica, y varios renunciaron en protesta a estas acciones.
Competencia global y liderazgo en IA
En una publicación del blog de Google, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, y Demis Hassabis, jefe de Google DeepMind, destacaron que los marcos regulatorios propuestos por países democráticos han ayudado a la compañía a comprender mejor los riesgos y el potencial de la IA.
“Existe una competencia global por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deben liderar este desarrollo, guiadas por valores como la libertad, la igualdad y el respeto por los derechos humanos”, señalaron.
Además, enfatizaron la importancia de que empresas, gobiernos y organizaciones colaboren para crear una IA que proteja a las personas, impulse el crecimiento global y apoye la seguridad nacional.
Fuente: ArmsControl