Estados Unidos está tan preocupado por la Inteligencia Artificial que ha citado a los líderes de este sector en la Casa Blanca

La administración de la Casa Blanca ha anunciado su intención de reducir los riesgos asociados con la inteligencia artificial mediante una mayor inversión pública. Con el objetivo de fomentar “una innovación responsable”, se destinarán $140 millones de dólares adicionales a este fin.

Estados Unidos sigue buscando normativas para la IA

Mientras tanto, la vicepresidenta Kamala Harris se ha reunido con los líderes de las principales empresas tecnológicas para discutir este tema. La Casa Blanca ha anunciado recientemente nuevas medidas para fomentar la innovación responsable en el ámbito de la inteligencia artificial (IA) y proteger los derechos y la seguridad de los ciudadanos.

Ha sido tema de conversación la creciente popularidad de herramientas como los chatbots y la capacidad de la IA para manipular e incluso falsificar imágenes ha llevado a Washington a tomar medidas para limitar su uso, especialmente en el contexto de la próxima campaña electoral de 2024.

Esta desinformación en línea ha causado estragos en los últimos años, y el uso de la IA para crear realidades alternativas representa un riesgo estratégico demasiado alto, como ha señalado esta semana el padre de la IA, Geoffrey Hinton.

La Fundación Nacional de las Ciencias (NSF), una agencia gubernamental, tiene previsto invertir $140 millones de dólares adicionales para establecer siete nuevos Institutos Nacionales de Investigación sobre IA con temáticas específicas, según se informa en su sitio web.

En total, habrá 25 institutos nacionales de investigación de IA en el país, con una financiación de $500 millones de dólares para apoyar la innovación responsable que promueva el bien público. En comparación, el gigante tecnológico Microsoft invirtió $10.000 millones de dólares solo en OpenAI, la compañía que desarrolla el popular ChatGPT.

La administración demócrata también se ha comprometido a publicar un borrador de directrices para que las agencias gubernamentales garanticen que su uso de la IA proteja los derechos y la seguridad del pueblo estadounidense.

Reunión con las principales empresas de IA

Además, ha logrado el compromiso de varias empresas del sector para someter sus productos a escrutinio en una conferencia sobre ciberseguridad. La vicepresidenta Kamala Harris, se reunió este jueves con los líderes de Google, Microsoft, OpenAI y Anthropic, para discutir las posibilidades y desafíos que presenta esta nueva realidad tecnológica.

En un comunicado, Harris destacó que el sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos, y que todas las empresas deben cumplir las leyes vigentes para proteger al pueblo estadounidense.

Como senadora y miembro de los comités de Inteligencia y Judicial, Harris investigó la interferencia rusa en las elecciones de 2016 y produjo pruebas empíricas de que los actores estatales utilizarán la tecnología para socavar la democracia.

 

La Casa Blanca se encuentra bajo una creciente presión para supervisar la inteligencia artificial desde que OpenAI lanzó su aplicación al público el año pasado. Desde entonces algunas de las grandes empresas tecnológicas han incorporado chatbots a sus productos y han acelerado la divulgación de la IA como un nuevo producto de consumo.

Sin embargo, la existencia cada vez mayor de imágenes falsas generadas por IA en internet es una seria advertencia, como han señalado algunos expertos sobre el potencial desinformativo de esta tecnología, algo especialmente peligroso en campañas electorales y en un país tan polarizado política y socialmente como los Estados Unidos.

Durante una llamada con periodistas celebrada el miércoles, un alto funcionario de Washington recordó que la Administración de Biden ha estado liderando estas cuestiones desde mucho antes de la aparición de estos nuevos productos de IA.

Anticipación a cualquier clase de riesgo

Para aprovechar las ventajas de la IA, debemos comenzar por mitigar sus riesgos. Este principio básico ha guiado nuestro trabajo sobre la IA desde el principio

En otoño, la Casa Blanca publicó el Plan para una Declaración de Derechos de la IA. Junto con el Marco de Gestión de Riesgos de la IA, se han proporcionado a las empresas, responsables políticos y creadores de tecnologías formas claras de mitigar los riesgos, según el alto funcionario.

El objetivo de aprovechar las oportunidades de la IA y mitigar sus riesgos, incluyendo la posible robotización o automatización de puestos de trabajo y la consiguiente destrucción de empleo, es aparentemente sencillo sobre el papel.

Según el llamamiento de la Casa Blanca, son las empresas las que tienen la responsabilidad fundamental de “asegurarse de que sus productos son seguros” antes de comercializarlos o hacerlos públicos.

Si es necesario, la Casa Blanca participará en una evaluación independiente y pública de los sistemas de IA en la AI Village de DEF CON 31, una de las mayores convenciones de hackers del mundo, junto con las empresas tecnológicas.

Estos modelos [de IA] serán evaluados allí por miles de socios de la comunidad y expertos para ver cómo se alinean con los valores descritos en el borrador de la Declaración de Derechos y en el Marco de Gestión de Riesgos

La Declaración de Derechos velará por que los sistemas automatizados protejan la privacidad de los datos y protejan a los usuarios de sesgos discriminatorios, otro de los temores que suscita la generalización de la IA.

Salir de la versión móvil