
🔎 Nova habilidade visual da IA impressiona — e preocupa
O novo modelo o3 do ChatGPT surpreendeu usuários ao demonstrar capacidade de identificar a localização de uma foto com base apenas na imagem — um recurso que lembra uma “busca reversa” e que rapidamente virou tema de discussão sobre privacidade e segurança digital.
📸 Em testes feitos por usuários, a IA foi capaz de identificar corretamente o local de uma imagem — comportamento que viralizou na internet com apelidos como “versão jogadora de GeoGuessr”.
Durante o anúncio oficial, a própria OpenAI apresentou um exemplo da funcionalidade: o ChatGPT não apenas reconheceu a localização de uma foto, como também indicou filmes gravados naquele local.
🧠 Como o ChatGPT descobre o local de uma foto?
O modelo OpenAI o3 é focado em raciocínio e análise em múltiplas etapas. Ao analisar uma imagem, ele:
- Examina detalhes como placas, letreiros e paisagens
- Pode aplicar zoom ou ajustar o enquadramento
- Compara visualmente os elementos da imagem com informações de seu banco de dados
💬 Importante: A IA não “confirma” o local, mas fornece um palpite altamente provável com base na análise dos elementos visuais.
⚠️ Quais os riscos dessa funcionalidade?
A capacidade de identificar locais com tanta precisão acende um alerta de privacidade, principalmente quando usada sem consentimento.
Riscos potenciais:
- Revelar a localização de uma pessoa por meio de uma foto postada em redes sociais
- Prática de doxing (exposição de dados pessoais sem permissão)
- Stalkers ou criminosos usando a ferramenta para rastrear pessoas públicas
👤 Manuela Menezes, especialista em proteção de dados (PG Advogados), alerta:
“Pessoas públicas estão mais vulneráveis a riscos como assédio ou sequestro, principalmente com postagens em tempo real.”
Ela recomenda que usuários evitem postar fotos enquanto ainda estão nos locais, preferindo compartilhar apenas após saírem.
📢 Antonielle Freitas, do escritório Viseu Advogados, também destaca os perigos:
“Há risco de rastreamento de rotina, exposição de localização e revelação de hábitos ou informações sensíveis.”
🧷 O que a OpenAI diz sobre isso?
Em resposta ao site TechCrunch, um porta-voz da OpenAI afirmou:
- Os modelos o3 e o4-mini são treinados para recusar pedidos envolvendo dados privados
- Há mecanismos de segurança que proíbem a identificação de pessoas em imagens
- A empresa monitora usos abusivos da ferramenta
📁 E as imagens são armazenadas?
Segundo a OpenAI:
- Arquivos enviados ao ChatGPT (como fotos e documentos) são armazenados somente durante a conversa ativa
- Em geral, eles expiram após cerca de três horas
- Se o usuário apagar o histórico, os arquivos são removidos também
📌 No entanto, a empresa pode usar as conversas para treinar seus modelos, caso o usuário não desative essa opção nas configurações.