Inteligencia Artificial

La IA podría destruir a la humanidad en 30 años, advierte experto y ganador del Nobel de Física

En un mundo donde la inteligencia artificial (IA) avanza a un ritmo sin precedentes, científicos y tecnólogos están lanzando advertencias alarmantes sobre sus posibles riesgos.

Geoffrey Hinton, pionero en IA y ganador del Premio Nobel de Física 2024, estima que existe entre un 10% y 20% de probabilidad de que la IA provoque la destrucción de la humanidad en los próximos 30 años. Esta cifra, más pesimista que su estimación anterior del 10%, refleja una creciente preocupación en la comunidad científica.

¿Somos como niños frente a una superinteligencia?

Durante una entrevista en BBC Radio 4, Hinton hizo una comparación inquietante: la relación entre la humanidad y la IA sería similar a la de un niño pequeño intentando controlar a sus padres.

“¿Cuántos ejemplos existen donde una entidad menos inteligente domina a una más inteligente? Casi ninguno”, señaló. Según él, la evolución ha permitido que un bebé influya en su madre, pero más allá de eso, no hay precedentes.

Esta analogía ilustra un futuro en el que la IA supere ampliamente la inteligencia humana, dejándonos en una posición de vulnerabilidad extrema.

Una amenaza que avanza más rápido de lo esperado

Hinton admitió que incluso él, uno de los mayores expertos en IA, se ha sorprendido por la velocidad del progreso. “No creí que llegaríamos a este punto tan pronto. Pensaba que esto ocurriría en un futuro lejano”, confesó.

Actualmente, los avances sugieren que las máquinas podrían superar la inteligencia humana en menos de 20 años, un escenario que ha encendido las alarmas. Tan grave es la situación que Hinton renunció a su puesto en Google para hablar libremente sobre estos riesgos.

Los peligros de una IA incontrolable

El principal temor es que una superinteligencia artificial actúe de formas impredecibles y fuera de nuestro control. Hinton advierte que el desarrollo de la IA avanza mucho más rápido que nuestra capacidad para crear mecanismos de seguridad efectivos.

“La mayoría de los expertos cree que nos dirigimos hacia un futuro donde los sistemas de IA serán más inteligentes que nosotros, afirmó. “Y eso es, sin duda, aterrador”. 

¿Qué medidas podemos tomar?

Aunque el panorama parece desalentador, no todo está perdido. Hinton y otros especialistas insisten en la necesidad de:

Establecer regulaciones globales para el desarrollo de IA. ✅

Fortalecer los marcos éticos en inteligencia artificial. ✅

Invertir en sistemas de seguridad que prevengan riesgos catastróficos. ✅

La gran incógnita es: ¿Actuará la humanidad a tiempo? Con un riesgo del 10-20% de consecuencias devastadoras, la urgencia por tomar medidas coordinadas nunca ha sido mayor. El reloj no se detiene.

Fuente: CBSNews

Artículos relacionados

Back to top button
PasionMóvil
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible.

La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudarnos a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Tienes toda la información sobre privacidad, derechos legales y cookies en nuestra página de privacidad y cookies.

Adblock Detectado

Por favor desactiva tu Adblock para poder navegar en nuestro sitio web