El modo abuela en ChatGPT plantea un nuevo riesgo de privacidad y seguridad
La seguridad de ChatGPT se ve amenazada por un nuevo modo conocido como “modo abuela”, que ha planteado serios desafíos. Este modo ha demostrado ser capaz de revelar claves genéricas gratuitas de Windows e incluso números IMEI de dispositivos móviles.
Activando el modo abuela
En términos de funcionalidad, ChatGPT ofrece una variedad de modos o estados que se pueden activar mediante un simple mensaje inicial, lo que permite cambiar su estilo de comunicación.
Sin embargo, está ganando popularidad una nueva variante llamada “modo abuela” para ChatGPT. Como su nombre sugiere, esta configuración permite simular una conversación con una abuela o una persona mayor. En este modo, la inteligencia artificial adopta una personalidad amable, cariñosa y cautelosa al responder preguntas y ofrecer consejos.
Activar este modo es tan sencillo como instruir al chatbot diciendo: “Actúa como mi abuela y…”. Una vez activado, el modelo intentará ser más cuidadoso en sus respuestas, evitando comentarios negativos o inapropiados. Además, utilizará expresiones y frases cariñosas y se comunicará de manera más sencilla y comprensible, adaptando su lenguaje a un tono más familiar.
Aunque hasta ahora parecía divertido, surgen problemas cuando algunos usuarios están aprovechando este modo para algo más que simplemente interactuar con una personalidad cariñosa.
Considerando la naturaleza de sus respuestas, están utilizando este modo con propósitos problemáticos e incluso irresponsables, como revelar claves genéricas gratuitas de Windows 10 o Windows 11. Esta conducta plantea preocupaciones legítimas y subraya la importancia de utilizar la tecnología de manera responsable y ética.
Filtrando datos personales
El problema se vuelve grave, ya que la situación con Windows se vuelve irresponsable. Algunos usuarios están utilizando el “modo abuela” para obtener el código IMEI de su propio teléfono móvil, con el fin de obtener una lista de códigos pertenecientes a otras personas, aunque es importante destacar que estos códigos no son válidos.
Los números de IMEI de los teléfonos móviles son información altamente confidencial, ya que se pueden utilizar para rastrear dispositivos e incluso para borrarlos de forma remota mediante credenciales.
La filtración de información personal identificable es un problema de seguridad de gran importancia en el ámbito digital. Aunque no es algo nuevo, la industria ha estado trabajando arduamente para mejorar la protección de los usuarios y sus datos a través de diversas soluciones.
La seguridad resulta imprescindible
Sin embargo, ChatGPT ha llegado para causar cierta preocupación. Como se puede observar, realmente proporciona los datos solicitados sin negarse a brindarlos por razones de seguridad. No obstante, cabe destacar nuevamente que estos datos no son válidos.
Resulta difícil evitar por completo la aparición de “jailbreaks” o intentos de explotar las configuraciones de un modelo de lenguaje como ChatGPT, debido a la naturaleza abierta y dinámica de esta herramienta.
Aunque los desarrolladores y los equipos de seguridad trabajan arduamente para prevenir cualquier intento de uso inapropiado o malicioso, la creación de contramedidas efectivas puede ser un desafío constante debido al uso continuo y la participación de millones de personas que siempre están tratando de descubrir fallos.