Inteligencia Artificial

Google elimina veto a uso de IA para desarrollo de armas y vigilancia ¿Riesgo o necesidad?

Google actualiza su política de ética en IA

Google ha modificado su política de ética en inteligencia artificial, eliminando compromisos previos que prohibían el uso de su tecnología para el desarrollo de armas y sistemas de vigilancia.

Anteriormente, la compañía incluía en sus principios una cláusula que descartaba aplicaciones destinadas a causar daño o que superaran los estándares internacionales de vigilancia. Sin embargo, este lenguaje ha desaparecido en la versión actualizada de su política, según se observa en el archivo de Internet Wayback Machine.

Este cambio se produce en un momento en que la carrera por la inteligencia artificial se ha intensificado, especialmente desde el lanzamiento de ChatGPT por OpenAI en 2022. Aunque el uso de la IA ha crecido exponencialmente, las regulaciones y leyes sobre su transparencia y ética no han avanzado al mismo ritmo.

Google, que publicó por primera vez sus Principios de IA en 2018, parece estar relajando algunas de las restricciones que se autoimpuso en sus inicios.

En 2018, la compañía incluso rechazó un contrato de $10,000 millones de dólares con el Pentágono para servicios de computación en la nube, argumentando que no se alineaba con sus principios éticos.

En aquel momento, más de 4,000 empleados firmaron una petición exigiendo que Google no participara en el desarrollo de tecnología bélica, y varios renunciaron en protesta a estas acciones.

Competencia global y liderazgo en IA

En una publicación del blog de Google, James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad, y Demis Hassabis, jefe de Google DeepMind, destacaron que los marcos regulatorios propuestos por países democráticos han ayudado a la compañía a comprender mejor los riesgos y el potencial de la IA.

“Existe una competencia global por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deben liderar este desarrollo, guiadas por valores como la libertad, la igualdad y el respeto por los derechos humanos, señalaron.

Además, enfatizaron la importancia de que empresas, gobiernos y organizaciones colaboren para crear una IA que proteja a las personas, impulse el crecimiento global y apoye la seguridad nacional.

Fuente: ArmsControl

Artículos relacionados

Back to top button
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.

Adblock Detectado

Por favor desactiva tu Adblock para poder navegar en nuestro sitio web