Um recurso disponibilizado nos modelos o3 04-mini do Chat GPT está se revelando bastante polêmico. Agora, a inteligência artificial pode verificar a localização de um usuário através da foto.
A novidade acende um alerta no que diz respeito à privacidade. Especialistas alertam que o mau uso dessa ferramenta pode acarretar a facilitação de perseguição online e divulgação indevida de dados pessoais.
"Pensar” com imagens
Os modelos o3 e o4-mini foram lançados pela OpenAI, a empresa responsável pelo ChatGPT. Segundo a companhia, estes modelos permitem a análise e entendimento de imagens enviadas pelo usuário, ainda que estas sejam de baixa qualidade. A isso, a empresa chamou de “pensar com imagens”. A ferramenta está disponível para assinantes.
Durante o anúncio oficial da empresa sobre o recurso, a própria OpenAI utilizou uma foto para descobrir a localização e até mesmo quais filmes foram produzidos no local. Para “pensar” com imagens, o modelo consegue até mesmo dar zoom em uma foto para aprimorar sua resposta.
Usuários compartilham resultados de pesquisa obtidos pelo modelo o3 (Foto: Reprodução/Instagram/@thesecuredad)
Fim da privacidade
Embora a análise de imagens compartilhadas com o ChatGPT seja feita com base em hipótese e probabilidade, as respostas do mecanismo abrem margem para uma possível violação de privacidade. Uma categoria que se aproveitaria negativamente da ferramenta seria dos stalkers — aqueles que seguem obsessivamente uma pessoa.
O novo recurso facilitaria a localização de uma pessoa com base em suas postagens nos stories do Instagram, ou a exposição de dados pessoais. Pessoas públicas, como políticos, empresários e celebridades, estariam mais suscetíveis a ataques. Uma recomendação de especialistas seria evitar postagens em tempo real, para garantir sua segurança e integridade.
Jason Wei, pesquisador de inteligência artificial da OpenAI (Foto: Reprodução/Bloomberg/Getty Images Embed)
A opinião da OpenAI
O portal TechCrunch questionou a OpenAI sobre uma possível violação de dados e de privacidade. Em resposta, a companhia alegou que os modelos o3 e o4-mini foram programados para impedir a exposição de dados privados e a identificação de pessoas.
A empresa também garantiu que os dados compartilhados com o ChatGPT são apagados em até três horas. Porém, parece não existir uma proteção ou impedimento para este tipo de busca reversa na plataforma.
Foto destaque: Logotipos do ChatGPT e do OpenAI em imagem feita na Tunísia, em 2024 (Reprodução/DeFodi Images News/Getty Images Embed)