Inteligencia Artificial al servicio de los Ciberdelincuentes
ChatGPT de OpenAI es un sistema de Inteligencia Artificial basado en GPT-3, la cual es capaz de generar conversación con cualquier persona, proporcionando respuestas, escribiendo todo tipo de textos, componiendo música y hasta creando lenguaje de programación mediante sus algoritmos pre-entrenados. El problema es que su increíble capacidad, también puede ser usada para hacer el mal. Tal es el caso del Phising, que básicamente son estafas por correo electrónico que son difíciles de detectar a simple vista y que representan un gran riesgo para muchos usuarios de Internet.
La plataforma WithSecure reveló que los atacantes pueden crear señuelos convincentes y cadenas de correo completas para el phishing, usando lenguaje similar al humano y copiando el estilo de comunicación de personas reales. El estudio encontró que los mensajes generados por ChatGPT pueden engañar a los usuarios, incluso si son complejos y largos, lo que rompe la línea de defensa de los errores gramaticales y frases extrañas que generalmente se detectan. La investigación se inició antes del lanzamiento del ChatGPT y continuó después.
Aunque es posible detectar si un mensaje fue escrito por IA, los investigadores están trabajando en herramientas para lograrlo más eficazmente, sin embargo actualmente solo funcionan en ciertos escenarios, como la detección de ensayos de IA en escuelas. Aplicar esta tecnología al filtrado de correos electrónicos es complicado, ya que muchas personas utilizan modelos de IA para simplificar su trabajo en entornos comerciales.
ChatGPT ha sido utilizado por ciberdelincuentes poco cualificados para desarrollar malware básico, pero vemos un alto riesgo de que sea utilizado por estafadores para desarrollar phishing que se utilizarán como parte de correos electrónicos y estafas de aplicaciones de citas”
Añadió Satnam Narang, ingeniero de Investigación de la plataforma de gestión de exposición cibernética Tenable, citado por el periódico El Financiero.
ChatGPT puede ser una herramienta útil para los ciberdelincuentes poco cualificados, aunque no tenga la capacidad de desarrollar software malicioso de manera profesional, según Narang. Steve Wozniak, cofundador de Apple, advirtió sobre el uso de ChatGPT en una entrevista con CNBC, calificándolo de “impresionante” y “útil”, pero destacando su falta de comprensión de la humanidad y su capacidad para cometer errores graves.
Wozniak también comparó las preocupaciones sobre la IA en los vehículos autónomos, argumentando que aún es muy temprano para reemplazar a los conductores humanos.
En la Cumbre Mundial de Gobiernos, Elon Musk señaló que “La Inteligencia Artificial es una amenaza para la civilización y debe ser regulada como los aviones o la medicina“. El magnate advirtió sobre la importancia de prestar atención a la seguridad de estos sistemas, ya que la reacción puede ser demasiado lenta en caso de fallos.
Elon Musk es conocido por ser un visionario en el campo de la tecnología, y su postura sobre la IA no es nada nuevo. En diversas ocasiones, ha manifestado su preocupación sobre los posibles peligros que esta tecnología podría representar para la humanidad si no se gestiona adecuadamente. Musk ha llegado a decir que la IA podría ser “más peligrosa que las armas nucleares“, y ha llamado a regular el desarrollo de la IA de manera más estricta, argumentando que el riesgo de su mal uso es demasiado alto.