La IA podría destruir a la humanidad en 30 años, advierte experto y ganador del Nobel de Física

En un mundo donde la inteligencia artificial (IA) avanza a un ritmo sin precedentes, científicos y tecnólogos están lanzando advertencias alarmantes sobre sus posibles riesgos.

Geoffrey Hinton, pionero en IA y ganador del Premio Nobel de Física 2024, estima que existe entre un 10% y 20% de probabilidad de que la IA provoque la destrucción de la humanidad en los próximos 30 años. Esta cifra, más pesimista que su estimación anterior del 10%, refleja una creciente preocupación en la comunidad científica.

¿Somos como niños frente a una superinteligencia?

Durante una entrevista en BBC Radio 4, Hinton hizo una comparación inquietante: la relación entre la humanidad y la IA sería similar a la de un niño pequeño intentando controlar a sus padres.

“¿Cuántos ejemplos existen donde una entidad menos inteligente domina a una más inteligente? Casi ninguno”, señaló. Según él, la evolución ha permitido que un bebé influya en su madre, pero más allá de eso, no hay precedentes.

Esta analogía ilustra un futuro en el que la IA supere ampliamente la inteligencia humana, dejándonos en una posición de vulnerabilidad extrema.

Una amenaza que avanza más rápido de lo esperado

Hinton admitió que incluso él, uno de los mayores expertos en IA, se ha sorprendido por la velocidad del progreso. “No creí que llegaríamos a este punto tan pronto. Pensaba que esto ocurriría en un futuro lejano”, confesó.

Actualmente, los avances sugieren que las máquinas podrían superar la inteligencia humana en menos de 20 años, un escenario que ha encendido las alarmas. Tan grave es la situación que Hinton renunció a su puesto en Google para hablar libremente sobre estos riesgos.

Los peligros de una IA incontrolable

El principal temor es que una superinteligencia artificial actúe de formas impredecibles y fuera de nuestro control. Hinton advierte que el desarrollo de la IA avanza mucho más rápido que nuestra capacidad para crear mecanismos de seguridad efectivos.

“La mayoría de los expertos cree que nos dirigimos hacia un futuro donde los sistemas de IA serán más inteligentes que nosotros, afirmó. “Y eso es, sin duda, aterrador”. 

¿Qué medidas podemos tomar?

Aunque el panorama parece desalentador, no todo está perdido. Hinton y otros especialistas insisten en la necesidad de:

Establecer regulaciones globales para el desarrollo de IA.

Fortalecer los marcos éticos en inteligencia artificial. ✅

Invertir en sistemas de seguridad que prevengan riesgos catastróficos. ✅

La gran incógnita es: ¿Actuará la humanidad a tiempo? Con un riesgo del 10-20% de consecuencias devastadoras, la urgencia por tomar medidas coordinadas nunca ha sido mayor. El reloj no se detiene.

Fuente: CBSNews

Salir de la versión móvil