Un grupo de científicos y empresarios encabezados por Elon Musk, piden pausar el desarrollo de la Inteligencia Artificial

Un grupo de empresarios del sector tecnológico, expertos y políticos, encabezados por el empresario Elon Musk, han enviado una carta con un cierto tono apocalíptico en la que piden la suspensión durante seis meses de los experimentos con inteligencia artificial (IA) muy potente. Según estos líderes de opinión, la búsqueda de la IA General podría representar un profundo riesgo para la sociedad y la humanidad.

La sociedad ha aprendido a detener el avance de otras tecnologías con efectos potencialmente catastróficos en la sociedad. Debemos hacer lo mismo aquí. Tomémonos un descanso de la IA y no nos precipitemos hacia un futuro incierto”.

Así afirma la carta abierta publicada por el Future of Life Institute, una organización sin ánimo de lucro. Y es que, el director ejecutivo de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y destacados investigadores como Yoshua Bengio, Stuart Russel, Carles Sierra y Ramón López De Mantaras, entre otros, han firmado esta carta abierta en la que alertan sobre los posibles peligros de la Inteligencia Artificial si no se gestiona y planifica adecuadamente.

La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes. Y es que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.

Aseguran en la carta firmada por múltiples personalidades del mundo digital.

Incluso se afirma que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera confiable a estas entidades digitales. Los firmantes presentan una visión apocalíptica de los temores y peligros que han estado presentes en foros, artículos y conversaciones cotidianas en los últimos meses, a lo que incluso plantean la pregunta:

¿Deberíamos crear mentes no humanas que podrían superarnos en número y en inteligencia, volviéndonos obsoletos y reemplazándonos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”.

Los firmantes concluyen que tales decisiones no deben dejarse en manos de líderes tecnológicos no electos. En este sentido, se solicita que los desarrolladores trabajen en conjunto con los legisladores para acelerar la creación de un marco legal sólido en torno a la IA.

Además, destacan la importancia de que los sistemas de Inteligencia Artificial poderosos solo se desarrollen cuando se garantice que sus efectos sean positivos y sus riesgos sean manejables. El comunicado hace un llamado a todos los laboratorios de IA para que suspendan de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más poderosos que GPT-4.

En caso de que las partes implicadas se nieguen a esta moratoria temporal de las investigaciones, se solicita la intervención de los gobiernos para imponerla.

¿Qué es la IA General?

Si bien, cabe destacar que por el momento, ninguno de lo sistemas de inteligencia artificial que se han anunciado comercialmente como ChatGPT de OpenAI, Ernie de Baidu, Google Bard o las nuevas versiones de programas de Microsoft con IA son aptos para ser considerados dentro de la apocalíptica visión que sostiene el grupo de expertos y figuras relevantes del mundo digital, ya que ellos se refieren a un desarrollo que aún no se ha logrado (o al menos no que se sepa públicamente), llamado I.A.G, que hace referencia a las siglas “Inteligencia Artificial General” también llamanda “Inteligencia Artificial Fuerte“.

La Inteligencia Artificial Fuerte (IAG) se refiere a la idea de que es posible crear una inteligencia artificial capaz de desarrollar una conciencia artificial. Aunque no hay garantía de que la IAG conduzca necesariamente al surgimiento de la conciencia artificial o que se genere una conciencia emergente, se considera como la posibilidad más plausible. Esto se debe a que la conciencia y la inteligencia general están intrínsecamente entrelazadas en los seres vivos.

Peter Voss, un experto en el campo de la IAG, sostiene que existe una coincidencia fundamental en las cualidades necesarias para el desarrollo tanto de un sistema de IAG como de una conciencia artificial. Por ejemplo, las personas poseen “autoconciencia conceptual“, que implica conceptos abstractos del “yo” físico y mental.

Esta característica sería imprescindible en la IAG, ya que tendría que poder conceptualizar qué acciones ha tomado, de qué acciones es capaz, y cuáles son sus efectos más probables. Sin embargo, aunque la conciencia artificial es una posibilidad fascinante, aún hay muchas preguntas sin respuesta sobre su naturaleza y su posible desarrollo.

Salir de la versión móvil