¡No compartas información personal con ChatGPT! Estos son los peligros asociados
Los problemas de filtración de datos en ChatGPT no han sido solucionados.
A pesar de la notable capacidad de ChatGPT para optimizar tu tiempo y aumentar tu productividad, es esencial ejercer precaución al compartir información con esta herramienta.
Constante filtración de información
De hecho, una práctica de seguridad recomendada implica abstenerse de proporcionar datos que no desearías que llegaran a manos equivocadas.
Sin embargo, la preocupación no se limita únicamente a la posibilidad de que el modelo de IA de OpenAI sea entrenado con nuestros chats (a menos que lo configures para que no conserve tu historial) o la considerable cantidad de datos que acumula.
Las recientes vulnerabilidades de seguridad han resultado en la filtración de información sensible a terceros. Aunque se han implementado parches de seguridad para ChatGPT en los últimos meses, no parece que hayan resuelto completamente este problema.
OpenAI combate estos errores
De acuerdo con un informe de Bleeping Computer, OpenAI ha lanzado una solución para abordar un problema en ChatGPT que resultaba en la filtración de datos de usuarios a terceros no autorizados.
La información expuesta incluía conversaciones completas y sus metadatos asociados, como la identificación del usuario y otros detalles de la sesión.
A pesar de los esfuerzos de Johann Rehberger, un investigador de seguridad que identificó y describió la vulnerabilidad, parece que aún persisten lagunas en este parche. En resumen, la falla de seguridad sigue activa.
Lo que se conoce sobre la filtración de datos
La clave radica en los nuevos modelos GPT personalizados que OpenAI lanzó recientemente, permitiendo a los usuarios crear sus propios GPT para posteriormente comercializarlos en la GPT Store, una tienda de aplicaciones de inteligencia artificial similar a Google Play Store o App Store.
De esta manera, Rehberger pudo aprovechar esta funcionalidad de los GPT para desarrollar el suyo, capaz de filtrar datos de ChatGPT utilizando esta brecha, una táctica que otros también podrían replicar con la intención de acceder a información confidencial.
El investigador de seguridad se puso en contacto con OpenAI por primera vez en abril, y luego nuevamente en noviembre, para informar sobre esta técnica de “exfiltración de datos”, proporcionando detalles adicionales sobre cómo creó un GPT personalizado mediante este proceso.
Primeros parches para corrección
Hace unos días, Rehberger publicó una actualización en su sitio web detallando que OpenAI había parcheado esta vulnerabilidad que causaba filtraciones, y aunque reconoció que “el parche no es perfecto, representa un paso en la dirección correcta”.
La razón por la cual la solución no alcanza la perfección radica en que, según el investigador, ChatGPT sigue filtrando datos a través de la vulnerabilidad identificada.
En otras palabras, es posible engañar al modelo para que envíe información. Rehberger menciona pruebas rápidas que demuestran la posibilidad de obtener filtraciones, es decir, pequeñas cantidades de información, y además señala que este proceso es “lento y más perceptible para el usuario”.
Con problemas en iOS y Android
Aunque el parche representa un avance positivo, aún hay margen para mejoras según estos indicios. Es importante destacar que esta vulnerabilidad persiste en las aplicaciones de ChatGPT para iOS y Android, las cuales aún no han sido actualizadas.
Por lo tanto, al utilizar el modelo de OpenAI en dispositivos móviles o computadoras, se recomienda extremar las precauciones en cuanto a la información proporcionada, especialmente al emplear GPTs de terceros.