O desenvolvimento cada vez mais acelerado da tecnologia de inteligência artificial pode trazer muitos benefícios à humanidade, mas carrega consigo riscos inerentes que ainda não estão sendo amplamente discutidos.
Antes, golpistas estrangeiros estavam à mercê de suas próprias limitações linguísticas, tornando mensagens falsas mais simples de serem distinguidas por conta de erros gramaticais. Contudo, a chegada de ferramentas como o ChatGPT torna a confecção de textos de cunho “oficial” muito mais simples, já que a inteligência artificial possui uma base de dados que a permite redigir as mensagens de maneira convincente, mesmo que o golpista não tenha domínio do idioma em questão. Mas não é apenas isso, já que a IA também pode auxiliar na falsificação da voz e até mesmo do rosto de uma pessoa, tornando a situação ainda mais grave.
Utilização de deepfakes em fraudes
Os deepfakes (falsificação profunda, em tradução literal), são vídeos, imagens ou áudios criados com o uso do rosto e/ou a voz de um indivíduos. Essas criações são falsas, mas acabam se tornando extremamente realistas com o uso de algoritmos de IA para aperfeiçoá-las. Deepfakes têm uma variedade de usos maléficos, como clonar perfis, destruir a reputação de indivíduos públicos e até mesmo tomar a identidade de outra pessoa para fins nefastos.
Muitos brasileiros têm reportado estarem passando por problemas com isso nos últimos meses, principalmente devido a tentativas de acesso a aplicativos de bancos com o uso do reconhecimento facial, para burlar o sistema de defesa e ganhar acesso à conta das vítimas.
A Comissão Federal de Comércio dos EUA reportou que, em 2022, mais de US$ 8,8 bilhões (R$ 43,43 bilhões, na cotação atual) foram perdidos para golpistas, um número cerca de 40% maior do que em 2021. E embora a maior quantidade de dinheiro tenha sido perdida em esquemas de investimento fraudulentos, os casos mais comuns são fraudes de impostores, presumivelmente através do uso de inteligência artificial. Isso pode ser um sinal de que sistemas de defesa através do uso de áudio e vídeo em tempo real podem se tornar obsoletos no futuro.
ChatGPT e similares podem ajudar em golpes
O ChatGPT e outras ferramentas do mesmo nicho facilitaram significativamente a vida de golpistas na hora de se passar por outra pessoa através do aprendizado de máquina, que pode receber os dados de uma vítima e aprender, a partir deles, como imitar os trejeitos dessa pessoa de maneira convincente.
Antigamente, seria necessário dezenas, talvez até mesmo centenas, de vídeos, fotos, imagens e exemplos de texto para criar uma falsificação convincente, mas as novas ferramentas baseadas em inteligência artificial generativa praticamente se livraram dessa necessidade. Agora, basta alguns vídeos ou algumas mensagens pessoais para que o programa possa aprender como você age e até mesmo imitar sua face, sua voz e o seu modo de digitar, tudo de maneira crível.
WormGPT, concorrente ilegal do ChatGPT, sendo utilizado para criar um malware (Foto: Reprodução/TecMasters)
O uso dessas ferramentas por golpistas torna essencial checar os dados de uma mensagem mais de uma vez, principalmente o remetente, para ter a certeza de que não é um e-mail falso enviado com o intuito de dar um golpe. Como dito por um executivo especializado em fraudes que foi entrevistado pela Forbes, “as mensagens de texto que os clientes recebem são perfeitas”, o que torna as vítimas mais suscetíveis de acreditarem no que está escrito, mesmo que sejam promessas falsas e maliciosas.
OpenAI e a resposta de outras empresas
Sendo a dona de uma plataforma que está ativamente aumentando os índices de fraude ao redor do mundo, a OpenAI certamente não ficou parada. Os desenvolvedores do ChatGPT já tentaram implementar formas de combater esse problema, como proibir que a ferramenta elabore mensagens com cunho suspeito. Mas, tendo em vista a gravidade da situação, as restrições implementadas ainda podem ser burladas de maneira relativamente simples por golpistas mais integrados no uso da tecnologia.
Alguns especialistas acreditam que o uso de IA também será importante para combater esses esquemas de fraude e inúmeras empresas de cibersegurança atualmente já estão empenhadas em criar novos algoritmos e soluções para esse problema, muitas vezes através do uso das próprias ferramentas que os golpistas estão utilizando; uma estratégia de combater fogo contra fogo.
Mas enquanto uma solução mais permanente não se apresenta, é sempre importante se lembrar de manter seus dados seguros. Utilize senhas fortes e autenticação de dois fatores em suas contas online, bem como tente evitar a disseminação de suas informações pessoais na internet. Principalmente em redes sociais, que são alvejadas por golpistas com frequência.
Foto destaque: Homem digitando em um notebook com imagens holográficas em cima do teclado, representando segurança digital. Reprodução/Rawpixel & Freepik