Inteligência artificial amplia denúncias de abuso infantil com deepfakes no Brasil

Em 2025, mais de 49 mil denúncias de crimes sexuais contra menores envolveram uso de IA e manipulação digital de imagens, segundo a SaferNet

07 out, 2025
Proteção digital e segurança na era da IA I Reprodução/Freepik/Alexander Samaro
Proteção digital e segurança na era da IA I Reprodução/Freepik/Alexander Samaro

O avanço das tecnologias de inteligência artificial (IA) trouxe benefícios em diversas áreas, mas também abriu caminho para novas formas de crime. Um levantamento da SaferNet Brasil, divulgado em outubro de 2025, revela que o país registrou quase 50 mil denúncias de abuso e exploração sexual infantil envolvendo deepfakes e imagens geradas por IA apenas nos primeiros sete meses do ano. O número representa 64% das 76.997 denúncias de crimes digitais recebidas entre janeiro e julho.

O aumento das notificações coincidiu com a repercussão do vídeo “Adultização”, publicado em agosto pelo influenciador digital Felca, que abordava a exposição sexual de menores nas redes. Após o conteúdo viralizar, com mais de 46 milhões de visualizações, a SaferNet recebeu 6.278 novas denúncias, metade delas apenas nas semanas seguintes à publicação.


Felipe Bressanim pública vídeo em rede social alertando sobre os perigos da adultização (Vídeo: reprodução/Instagram/@felca0)

A organização, que atua na defesa dos direitos humanos na internet, identificou ocorrências em dez estados brasileiros, com destaque para São Paulo, Minas Gerais, Rio de Janeiro e Paraná. Casos envolvendo estudantes e escolas chamaram a atenção: quatro registros em instituições paulistas indicam que o problema também afeta adolescentes e ambientes educacionais

Deepfakes e a nova fronteira do crime digital

A pesquisa aponta uma tendência alarmante: o uso crescente de IA generativa para produzir e disseminar imagens e vídeos sexualizados de crianças e adolescentes. Com apenas alguns cliques, qualquer pessoa pode criar deepfakes, fotos manipuladas ou animações que imitam vozes e rostos reais, utilizando aplicativos amplamente disponíveis na internet.

Esses materiais, segundo a SaferNet, circulam em redes sociais, aplicativos de mensagens e sites de conteúdo adulto, frequentemente sem qualquer tipo de moderação. O resultado é devastador para as vítimas, que enfrentam assédio, bullying e traumas psicológicos prolongados, já que as imagens dificilmente são removidas de forma definitiva.

Outro fator agravante é a omissão das plataformas de pornografia, que frequentemente hospedam esse tipo de conteúdo sem filtros adequados. A ausência de ferramentas eficazes de verificação e denúncia cria um ambiente propício para o compartilhamento de material ilegal, incluindo imagens criadas artificialmente com o rosto de menores de idade.

Desafios legais e necessidade de ação imediata

A SaferNet já vinha alertando sobre o avanço dessa prática desde 2024, quando identificou um grupo com mais de 46 mil membros vendendo deepfakes de celebridades brasileiras por valores que variavam de R$ 19,90 a R$ 25. A nova pesquisa aponta 95 denúncias envolvendo diretamente o termo “inteligência artificial”, sendo 12 referentes a um único site que hospedava material de abuso infantil. A ONG reforça que os números representam apenas “a ponta do iceberg”, indicando subnotificação e falta de rastreamento das vítimas.

Para Juliana Cunha, diretora da SaferNet e responsável pelo estudo, o fenômeno está evoluindo rapidamente e exige uma resposta coordenada: “Empresas de tecnologia precisam desenvolver mecanismos de prevenção; o poder público deve regulamentar e fiscalizar; e a sociedade civil tem papel fundamental na conscientização e na denúncia”, afirmou.

A criação e divulgação de imagens manipuladas com conteúdo sexual envolvendo menores é crime previsto no Código Penal brasileiro, podendo gerar responsabilização civil e criminal. Especialistas reforçam a urgência de educação digital nas escolas, campanhas de prevenção e políticas internas que coíbam o compartilhamento de imagens falsas — um passo essencial para conter uma das faces mais perigosas da era da inteligência artificial.

Mais notícias