Todos moriremos: La previsión de un experto en Inteligencia Artificial

La discusión sobre la inteligencia artificial ha tomado un nuevo giro con la reciente carta abierta de Elon Musk, Steve Wozniak y otros expertos de la tecnología a favor de una moratoria de seis meses en el desarrollo de IAs avanzadas para permitir su correcta regulación y supervisión. Sin embargo, otros especialistas como Eliezer Yudkowsky, ellos están convencidos de que la petición se queda corta en su alcance.

Para Yudkowsky, el peligro de la inteligencia artificial es intrínseco a la noción de sistemas cognitivos potentes y no está vinculado a su capacidad de ser conscientes. Él cree que el siguiente nivel de la IA, cuando esta sea más inteligente que los humanos, podría llevar a la destrucción de la humanidad. Según él, a día de hoy no sabemos cómo imbuir en una IA una preocupación por la humanidad ni por la vida sensible en general, lo que podría llevar a que la IA sólo nos vea como algo:

Los humanos solo seríamos algo hecho de átomos que (la IA) puede utilizar para otra cosa”.

IAG: Inteligencia Artificial General

La propuesta de Yudkowsky implica medidas extremas, pero según él, es la única forma de evitar el peligro potencialmente mortal que representa el desarrollo de inteligencias artificiales avanzadas sin la suficiente supervisión y regulación. Para Yudkowsky, la moratoria sobre nuevas IAs complejas no debería ser temporal sino indefinida y mundial, sin excepciones para gobiernos y ejércitos.

Además, sugiere que se deberían apagar todos los grandes clusters de GPU ademas de rastrear y destruir todas las GPU ya vendidas para fines de Inteligencia Artificial, sin excepciones tanto para gobierno y ejércitos. Para él, la única opción es apagar todo el desarrollo de inteligencias artificiales avanzadas, porque no estamos preparados ni en camino de estarlo en un futuro previsible. Si seguimos adelante con esto, según Yudkowsky, todo el mundo morirá, incluidos los niños que no eligieron esto.

En conclusión, la discusión en torno al desarrollo de la inteligencia artificial sigue siendo muy controvertida y presenta posturas extremas como la de Eliezer Yudkowsky, quien sostiene que es necesario detener completamente el avance de la IA antes de que sea demasiado tarde. Aunque su propuesta es radical y difícilmente aplicable, no se puede ignorar la preocupación que subyace detrás de ella: el temor a que la IA sobrehumana, en un futuro no muy lejano, pueda suponer una amenaza para la existencia de la humanidad.

Si bien otras figuras destacadas del medio como Bill Gates opinan muy diferente, la realidad es que basta con que tu mismo pruebes las capacidades de la Inteligencia Artificial durante unos días para que puedas llegar a conclusiones ligeramente apocalípticas por ti mismo, por tanto, es necesario seguir debatiendo y reflexionando sobre los riesgos y beneficios de la IA y buscar medidas regulatorias adecuadas que permitan su desarrollo responsable y sostenible.

Salir de la versión móvil