Desde que ChatGPT está posibilitando la generación de imágenes en su plataforma, el chatbot de OpenAI se está popularizando con tendencias en redes sociales, como las de Studio Ghibli y la creación de figuras de acción personales.
Y ahora, con la aparición de los modelos o3 y o4-mini, que tiene mejor procesamiento y análisis a partir de imágenes, una peligrosa característica se está comenzando a hacer viral.
La gente está usando ChatGPT para averiguar la ubicación que se muestra en las imágenes, lo que potencialmente es muy peligroso para la privacidad de las personas.
Los usuarios de X descubrieron rápidamente que o3, en particular, es bastante bueno para deducir ciudades, puntos de referencia e incluso restaurantes y bares a partir de sutiles pistas visuales.
Los modelos no parecen basarse en «recuerdos» de conversaciones pasadas de ChatGPT, ni en datos EXIF, que son los metadatos adjuntos a las fotos que revelan detalles como dónde se tomó la foto.
X está lleno de ejemplos de usuarios que dan a ChatGPT menús de restaurantes, instantáneas de vecindarios, fachadas y autorretratos, e instruyen a o3 para que imagine que está jugando a «GeoGuessr», un juego en línea que desafía a los jugadores a adivinar ubicaciones de imágenes de Google Street View.
En la mayoría de las legislaciones nacionales, se establece que los permisos de geolocalización de las personas y tratamiento de datos individuales requieren de la autorización expresa de los usuarios.