
ChatGPT ahora analiza imágenes y deduce ubicaciones con asombrosa precisión
OpenAI ha dado un salto tecnológico al equipar a ChatGPT con nuevos modelos (o3 y o4-mini) capaces de analizar fotografías y determinar su ubicación geográfica sin necesidad de metadatos.
Esta función, que combina visión artificial y razonamiento contextual, ha sorprendido a usuarios y expertos, aunque también ha encendido alarmas sobre posibles vulneraciones de privacidad.
Según reportes de Genk.vn, los usuarios están probando los límites de la IA subiendo imágenes cotidianas —como menús de restaurantes o selfies— para que el modelo identifique el lugar.
Los resultados son impresionantes: ChatGPT logra deducir ciudades o monumentos específicos basándose en detalles como el color del agua, el tipo de vegetación o arquitectura.
¿Cómo funciona esta tecnología?
De acuerdo con Tom’s Hardware, el modelo o3 puede ampliar, rotar y recortar imágenes para extraer pistas.
Esta capacidad para interpretar contextos visuales convierte a ChatGPT en una herramienta poderosa, pero también en un arma potencial para doxxing (exposición malintencionada de datos personales).
OpenAI afirma haber implementado barreras para bloquear solicitudes sensibles, como la identificación de personas en imágenes. No obstante, medios como TechRadar señalan que modelos anteriores, como GPT-4o, ya demostraron habilidades similares —incluso más rápidas—, lo que cuestiona la eficacia de estas medidas.
El debate ético: Privacidad vs. innovación
Mientras usuarios en redes sociales celebran las habilidades geolocalizadoras de ChatGPT, expertos advierten sobre riesgos críticos: cualquier persona podría analizar una foto pública y rastrear ubicaciones precisas, facilitando el acoso o el robo de información.
OpenAI defiende los beneficios de esta tecnología, como asistencia a personas con discapacidad visual o rescates en emergencias. Sin embargo, investigadores del Instituto de Sistemas Inteligentes y Robótica (ISIR) destacan que, aunque las IA pueden simular comprensión de valores humanos (como la dignidad), carecen de conciencia real.
En un experimento, los modelos no reconocieron la violación de derechos en situaciones de servidumbre, pese a condenar actos históricos como el racismo contra Gandhi.
El avance de ChatGPT plantea un dilema global. La regulación y la ética deben evolucionar al mismo ritmo que estas tecnologías para evitar que la innovación comprometa la seguridad de las personas. ¿Dónde trazamos el límite? La discusión apenas comienza.
Fuente: TechRadar