Astrofotógrafo captura a “Galáxia do Coração” em imagem de alta resolução com IA

A tecnologia voltou seus olhos para o espaço  e o resultado é deslumbrante. O astrofotógrafo canadense Ronald Brecher capturou uma das imagens mais detalhadas já registradas da Nebulosa do Coração (IC 1805), localizada a cerca de 7.500 anos-luz da Terra, na constelação de Cassiopeia.

A fotografia, publicada em setembro de 2025, foi feita com um conjunto de equipamentos de ponta, combinando sensores de altíssima sensibilidade, longa exposição e algoritmos de correção de ruído impulsionados por inteligência artificial.

A nebulosa, uma imensa nuvem de gás e poeira com mais de 300 anos-luz de diâmetro, é uma das regiões mais estudadas da Via Láctea por abrigar um verdadeiro berçário estelar. Localizada no Braço de Perseu, ela é vizinha das nebulosas da Alma (IC 1848) e Cabeça de Peixe (IC 1795).

Como a imagem foi capturada

Para o registro, Brecher utilizou uma câmera astronômica QHY367C Pro, acoplada a um telescópio Sky-Watcher Esprit 70 EDX, com exposição total de 40 horas contínuas. O uso de sensores digitais e softwares de correção espectral permitiu realçar tons invisíveis ao olho humano, criando uma composição em cores Hubble e Foraxx — técnicas que separam os gases cósmicos por frequência luminosa.

“Foi um conjunto de dados divertido e desafiador de processar”, explicou Brecher em seu blog oficial. Segundo ele, esta foi a primeira vez que conseguiu capturar toda a extensão da Nebulosa do Coração em paleta de banda estreita, um formato que utiliza filtros específicos para destacar o brilho do hidrogênio e do oxigênio presentes no espaço interestelar.

Um laboratório natural para o nascimento de estrelas

A IC 1805, também chamada de Sh2-190, é um dos melhores exemplos de como o avanço da tecnologia ajuda a compreender fenômenos cósmicos. A imagem mostra com precisão a estrutura de gás ionizado onde novas estrelas estão sendo formadas. O registro de Brecher oferece dados valiosos para estudos sobre a composição química da região e a interação entre radiação estelar e matéria cósmica.


Embed from Getty Images

Tecnologia poderá auxiliar cientistas nos estudos de fenômenos cósmicos (Foto:reprodução/Lothar Knopp/ Getty Images Embed)

Para entusiastas e astrônomos amadores, a boa notícia é que observar a Nebulosa do Coração não exige equipamentos da NASA. Com telescópios médios e câmeras de longa exposição, é possível localizá-la a cinco graus da estrela Segin, no norte celeste.

Fotografia astronômica impulsionada por IA

O uso de inteligência artificial tem revolucionado a astrofotografia. Softwares de pós-processamento como o PixInsight e o Topaz Denoise AI permitem reduzir ruídos e otimizar contraste de forma automática, revelando estruturas antes imperceptíveis. Especialistas apontam que, com o avanço desses sistemas, será possível combinar dados ópticos e de rádio em tempo real, criando imagens ainda mais precisas do cosmos.

A foto de Brecher, que rapidamente viralizou em comunidades científicas e fóruns tecnológicos, reforça como a fusão entre ciência, arte e tecnologia digital está expandindo os limites da observação astronômica.

Famosos pedem proibição de desenvolvimento de IA superinteligente

Um manifesto idealizado pela organização Future of Life Institute pede a proibição do desenvolvimento de inteligência artificial superinteligente. O abaixo-assinado exige que a ferramenta não seja levada ao público “antes que haja um amplo consenso científico de que isso será feito de forma segura e controlada, e uma forte adesão pública”.

O documento foi assinado por diversas figuras públicas, como o Duque e a Duquesa de Sussex – Príncipe Harry e Meghan Markle – o co-fundador da Apple, Steve Wozniak, o bilionário britânico Richard Branson, o ex-presidente do Estado-Maior Conjunto dos EUA, Mike Mullen e Susan Rice, ex-conselheira de segurança nacional de Obama.

Contudo, o que surpreendeu a todos foi a assinatura de Steve Bannon e Glenn Beck, duas personalidades que representam a direita americana. Bannon foi assessor e estrategista-chefe da Casa Branca na primeira gestão de Donald Trump como presidente dos Estados Unidos.

Conteúdo do manifesto

Ao contrário de outros documentos que apresentam argumentos embasados e com análises críticas, o manifesto escrito pelo Future of Life Institute possui somente 30 palavras.

“Apelamos a uma proibição do desenvolvimento da superinteligência, que não será levantada antes que haja um amplo consenso científico de que isso será feito de forma segura e controlada, e uma forte adesão pública”

Em uma espécie de prefácio, os idealizadores do documento alegam que “muitas empresas líderes de IA têm o objetivo declarado de construir superinteligência na próxima década que possa superar significativamente todos os seres humanos em essencialmente todas as tarefas cognitivas”. Porém, não apresentam nenhuma prova ou indício que ateste o registro.


Parte dos nomes de quem assinou o manifesto (Foto: reprodução/Instagram/@futureoflifeinstitute)

Quem assinou

A carta é direcionada a grandes conglomerados da tecnologia como Google, OpenAI e Meta Platforms. A lista dos que assinaram é extensa e diversificada e conta com mais de 800 nomes.

Como comentário pessoal, o Príncipe Harry acrescentou que o desenvolvimento da inteligência artificial deve estar voltado para o benefício da humanidade, e não para substituí-la. Segundo ele, o verdadeiro indicador de progresso não está na velocidade das inovações, mas na capacidade de conduzi-las com sabedoria — uma oportunidade que não se repete.

Stuart Russell, pioneiro da inteligência artificial ​​e professor de ciência da computação na Universidade da Califórnia, Berkeley, também assinou o manifesto. Ele ressaltou que “É simplesmente uma proposta para exigir medidas de segurança adequadas para uma tecnologia que tem uma chance significativa de causar a extinção humana.”

Yoshua Bengio e Geoffrey Hinton, co-vencedores do Turing Award, o principal prêmio da ciência da computação, uniram seus nomes à lista. Ambos, pioneiros em inteligência artificial, com Stuart Russell.

Personalidades da política também se uniram ao manifesto. A ex-presidente irlandesa Mary Robinson e vários parlamentares britânicos e europeus e ex-membros do Congresso dos Estados Unidos assinaram.

Dos nomes que assinaram a petição, um deles chamou a atenção. Steve Bannon, ex-assessor e ex-estrategista-chefe da Casa Branca no primeiro mandato de Donald Trump.


Anthony Aguirre, diretor-executivo do Future of Life Institute (Foto: reprodução/Instagram/@futureoflifeinstitute)

O instituto

O Future of Life Institute é uma organização se fins lucrativos cujo diretor-executivo é Anthony Aguirre, físico da Universidade da Califórnia. O grupo trabalha com riscos de larga escala, como armas nucleares, biotecnologia e inteligência artificial. Atualmente, seu maior doador é Vitalik Buterin, co-fundador da blockchain Ethereum.

Aguirre quer forçar uma conversa que inclua não apenas grandes empresas de inteligência artificial, mas também políticos nos Estados Unidos, na China e em outros lugares. Ele alega que as visões pró-indústria do governo Trump sobre inteligência artificial precisam de equilíbrio.

Brasil está entre fascínio e receio com a IA

Uma recente pesquisa realizada pela Hibou, em parceria com a Indico, mostra que o brasileiro está cada vez mais familiarizado com a IA, mas também está mais atento aos riscos. Segundo o levantamento, 65,3% dos consumidores declararam já ter utilizado algum recurso de IA.

Por outro lado, 95,5% acreditam que as empresas precisam impor limites éticos e sociais ao uso da IA, mesmo que isso reduza eficiência ou lucro. O estudo foi realizado nos dias 28 e 29 de setembro de 2025, com 1.230 pessoas de diferentes regiões do Brasil.

Perfil divergente por faixa etária e preocupação

A adoção da tecnologia e o nível de conforto com ela variam bastante segundo a idade. Entre brasileiros de até 44 anos, 80,1% já utilizaram ferramentas de IA. Já para aqueles com mais de 45 anos, o índice cai para 45,4%. Esse contraste revela dois mundos divergentes, de um lado as gerações mais jovens que abraçam mais facilmente a automação e as novas interfaces; de outro, pessoas mais maduras que ainda resistem ou demoram a aceitar as transformações digitais.

Quando questionados sobre quais valores deveriam ser respeitados pelas empresas que usam IA, 55% dos entrevistados apontaram a privacidade de dados como o mais importante. Na sequência vêm a transparência (21,4%) e os direitos do consumidor (10,3%). Apesar da forte demanda por ética, apenas 45,3% acreditam que as empresas fazem uso ético das informações pessoais, enquanto 17,6% avaliam o uso como “nada ético”. A percepção negativa é mais intensa entre os mais velhos.

Aonde a IA já marca presença no consumo

A pesquisa também investigou como a inteligência artificial aparece na experiência de consumo dos brasileiros. Segundo o levantamento, 62% dos participantes disseram já perceber a presença da Inteligência Artificial em seus hábitos diários. Essa percepção se manifesta, principalmente, em interações automatizadas com marcas e serviços. Entre os impactos mais citados estão o uso de chatbots para atendimento (30,1%), recomendações de produtos e serviços (21,5%) e ofertas personalizadas (19,7%). Esses dados revelam que a tecnologia vem se integrando de forma silenciosa, porém constante, às rotinas de consumo da população.

Por outro lado, quase 30% dos entrevistados afirmam não perceberam a influência da IA em seu dia a dia, índice que sobe para 40,9% entre pessoas mais velhas, o que reforça a diferença geracional no reconhecimento e na adoção dessas ferramentas.

Além disso, embora a IA seja bem recebida em alguns segmentos, como o de transporte (52%), ainda há forte preferência pelo atendimento humano em áreas consideradas mais sensíveis com saúde (76,9%), atendimento ao cliente (63%) e educação (60,1%). Esses números indicam que, embora a automação já faça parte do cotidiano, os consumidores brasileiros estabelecem limites claros sobre onde a tecnologia deve, ou não, substituir a interação humana.

O principal dilema: eficiência vs. confiança

De acordo com Christiano Ranoya, CEO da Indico, a inteligência artificial tende a redefinir profundamente a forma como marcas e consumidores se relacionam, transformando a experiência de compra e atendimento. No entanto, ele destaca que o público brasileiro já demonstrou ter uma postura crítica diante dessa evolução, pois a eficiência tecnológica, por si só, não é suficiente para conquistar a confiança do consumidor. Para Ranoya, ética e transparência são fatores indispensáveis, sem eles a automação pode até agilizar processos, mas não será capaz de gerar fidelidade nem credibilidade duradoura.


Camila Veras Mota (Vídeo: reprodução/YouTube/BBC News Brasil)

Em resumo, o usuário quer a comodidade que a IA fornece, mas não à custa de seu direito à privacidade ou de ver suas informações pessoais exploradas sem controle. Essa tensão entre benefício e risco será um dos grandes desafios para empresas e reguladores nos próximos anos.

Por que isso importa

Paras as empresas é sobre entender que essa postura dual do consumidor é essencial. Pois investir em IA já não é mais “se”, mas “como” e parte dessa “como” passa por definir políticas de uso de dados, transparência e proteção da privacidade. Para os reguladores, a pesquisa mostra que a sociedade está exigindo limites éticos para IA. Isso pode impulsionar legislação mais rigorosa ou diretrizes específicas para a tecnologia com foco em proteção de dados pessoais. Já para os consumidores, isso evidencia a importância de estar consciente de como seus dados são usados, e de exigir clareza das empresas. A “caixa-preta” dos algoritmos já não parece ser aceitável para a maioria.

O que observar daqui para frente

Um dos principais desafios que se impõe é como as empresas irão traduzir as expectativas dos consumidores em práticas concretas, especialmente no que diz respeito a contratos, políticas de uso de dados e formas de comunicação. A transparência sobre como as informações pessoais são coletadas e utilizadas deve deixar de ser um detalhe técnico para se tornar um pilar central da relação entre marcas e público.

Outro ponto relevante é a diferença geracional na adoção da IA. Se a tecnologia continuar crescendo mais rapidamente entre os jovens, enquanto os mais velhos permanecem mais cautelosos, essa divisão poderá influenciar diretamente como as marcas se posicionam no mercado brasileiro. Empresas voltadas a públicos mais jovens tenderão a investir em soluções automatizadas e experiências digitais mais imersivas, enquanto aquelas que lidam com consumidores mais maduros precisarão equilibrar inovação e atendimento humano.

Também há uma discussão cada vez mais urgente sobre o impacto regulatório. No Brasil, temas como privacidade, proteção de dados e governança da IA ganham destaque, impulsionados pela Lei Geral de Proteção de Dados (LGPD). O avanço da tecnologia deve vir acompanhado de regras mais claras e mecanismos de fiscalização mais eficazes, garantindo segurança jurídica tanto para empresas quanto para cidadãos.

Nesse cenário, o papel da educação digital será essencial. É preciso capacitar o usuário para compreender os riscos, direitos e consentimentos envolvidos no uso da IA, além de orientá-lo sobre como gerir suas próprias informações pessoais. Um público mais informado é também um público mais protegido e exigente.

Por fim, a evolução da própria IA deve caminhar rumo a sistemas com mecanismos de explicabilidade, responsabilidade e auditoria. Em outras palavras, o futuro da tecnologia depende não apenas de algoritmos capazes de executar tarefas com eficiência, mas também de algoritmos que mostrem como e por que fazem o que fazem, fortalecendo a confiança e a ética no uso da inteligência artificial.

Novo recurso da Meta traz traduções em áudio para vídeos em Hindi e Português

Informações sobre uma nova ferramenta de tradução foram divulgadas na última quinta-feira (9) para uma nova atualização que incluirá vídeos do Facebook e publicações do Instagram Reels, com inteligência artificial, criações na plataforma poderão ser “dubladas” automaticamente para hindi ou português. O recurso parte da tradução inicial em inglês-espanhol lançada em agosto pela Meta.

A empresa mira diretamente nos mercados mais engajados com o Reels, adicionando português e hindi, dois idiomas falados por milhões de pessoas em todo o mundo, uma estratégia que aproxima criadores de conteúdo com seus espectadores, ao mesmo tempo que afina ainda mais a divisão entre autenticidade real e produções artificiais.

É possível que o engajamento nas plataformas Meta aumente o tempo gasto dos usuários acompanhando seus feeds, recebendo conteúdos que antes eram ignorados ou excluídos pela barreira entre idiomas tão distintos.

Sintetização e sincronização

Com a ferramenta, criadores de conteúdo podem ativar uma função que imitará o som e o tom de voz da pessoa presente no vídeo a ser publicado, traduzindo totalmente o áudio para outro idioma. Para evitar um estranhamento com as vozes sintéticas, entre as configurações da tradução, existe a sincronização labial, onde um escaneamento combinará o áudio traduzido com o movimento da boca do locutor, parecendo mais “natural”.


Mark Zuckerberg anunciando a nova ferramente Meta (Vídeo: reprodução/Instagram/@zuck)

Para aqueles que não desejam conviver com o recurso, na aba de controles do Instagram “Traduzido com Meta AI” é possível desativar as novas traduções e trocá-las pelo áudio original. Traduções em áudio também estão disponíveis no TikTok.

Perigos cibernéticos

Por um lado, a nova ferramenta de tradução diminui barreiras linguísticas, permitindo que criadores tenham um maior alcance e seguidores conheçam novos conteúdos, porém, quanto mais filtros de inteligência artificial comandam o mundo digital pouco a pouco, esvaindo as partes humanas do material, mais próximo chegam os usuários de precisarem de novas proteções em relação à atribuição e consentimento.

Vale lembrar que áudios artificiais estão começando a serem indistinguíveis da realidade e que antes mesmo de serem tão “perfeitos” muitos golpes foram aplicados utilizando ferramentas IA e não apenas em áudio, mas também com imagens, como o deep fake, para arrancar dinheiro de desavisados. Embora haja lados positivos, no mundo virtual com o comando de recursos programados, há mais perigos cibernéticos à espreita.

Como o software da AMD garantiu acordo bilionário com OpenAI

O software da AMD foi decisivo para maximizar o desempenho de seus chips e conquistar a confiança da OpenAI. A plataforma permite programar o hardware de forma otimizada e cria fidelidade entre engenheiros, garantindo que a AMD se torne a escolha preferida para operações de inteligência artificial.

Plataformas otimizadas permitem que engenheiros programem e operem o hardware de forma mais eficiente, criando fidelidade ao ecossistema da empresa. Para a OpenAI, isso se traduziu em confiança e rapidez na integração com seus modelos de IA.

Vamsi Boppana, vice-presidente sênior de IA da AMD, afirma que o software foi decisivo para convencer a OpenAI a escolher a empresa: “Olhando para o futuro, cada vez mais será o software que fará a diferença na adoção de nossos chips.”

Parceria multibilionária e 6 gigawatts de computação

O acordo permite que a OpenAI utilize os chips MI450 da AMD para gerar 6 gigawatts de computação, fundamentais para produtos como o ChatGPT. Além disso, a OpenAI poderá adquirir até 10% das ações da AMD, consolidando uma relação estratégica de longo prazo.

A compatibilidade do Triton, linguagem de código aberto da OpenAI, com GPUs AMD, também foi um diferencial, ampliando as possibilidades de execução de modelos de IA fora do ecossistema Nvidia, tradicionalmente dominante.

Parceria bilionária com OpenAI

O acordo permitirá à OpenAI utilizar os chips MI450 da AMD para gerar 6 gigawatts de computação, além de adquirir até 10% das ações da fabricante de semicondutores. A compatibilidade da linguagem de código aberto Triton com GPUs AMD foi fundamental, abrindo caminho para a execução de modelos de IA fora do ecossistema Nvidia.


Parceria promete otimizar os sistemas de IA da OpenAI(Foto: reprodução/Jonathan Raa/NurPhoto/Getty Images)

Estratégia em meio à demanda global

Com a explosão da IA e investimentos bilionários em data centers, a AMD se destaca oferecendo alternativas ao domínio da Nvidia. O software e a colaboração direta com a OpenAI tornam a empresa competitiva na execução de inferência e treinamento de modelos, setores de alta demanda.

Da crise ao protagonismo tecnológico

Sob a liderança de Lisa Su, a AMD passou de uma empresa à beira da falência em 2014 para um player estratégico no mercado de IA, com valor de mercado de US$ 382 bilhões e ações acima de US$ 235. A parceria com a OpenAI consolida sua posição e abre portas para novos negócios na era da inteligência artificial.

Potencial de futuro e inovação contínua

O sucesso com a OpenAI abre portas para novas parcerias e avanços tecnológicos. A experiência adquirida na integração de hardware e software prepara a AMD para desenvolver soluções ainda mais sofisticadas, atendendo à crescente demanda da era da inteligência artificial.

Especialistas do setor acreditam que o modelo da AMD pode redefinir padrões de mercado: fabricantes que investirem em software proprietário terão vantagem competitiva, fidelizando clientes e acelerando a adoção de novas tecnologias.

Após 14 anos, Tron: Ares marca o retorno da franquia de ficção científica da Disney

Após mais de uma década de espera, a Disney retorna ao mundo virtual com “Tron: Ares”, terceiro capítulo da icônica franquia de ficção científica. O filme marca a chegada de Jared Leto como protagonista e promete expandir o universo tecnológico que conquistou gerações desde 1982, trazendo ainda mais complexidade e ação às histórias já conhecidas pelos fãs.

Dirigido por Joachim Rønning (“Piratas do Caribe: A Vingança de Salazar”), o longa combina efeitos visuais de ponta, trilha sonora imersiva e uma narrativa que mistura humanidade, tecnologia e inteligência artificial. A produção deve dar um novo fôlego à saga, abordando temas atuais como a convivência entre humanos e softwares autônomos, além de questionar limites éticos e filosóficos da evolução digital.

Enredo promete mergulho mais profundo na IA

Em “Tron: Ares”, Jared Leto interpreta um programa enviado ao mundo real com uma missão que pode redefinir os limites entre tecnologia e consciência humana. A trama se passa anos após os eventos de “Tron: O Legado” (2010), explorando de forma intensa as consequências da interação entre as duas dimensões digital e física e mostrando os impactos dessa conexão tanto na sociedade quanto na identidade individual.


Trailer oficial de Tron: Ares (Vídeo: Reprodução/Instagram/disney)

Com uma estética ainda mais futurista, o filme promete elevar o padrão visual da franquia, mantendo o equilíbrio entre nostalgia, inovação e ação contínua. Segundo o diretor, a intenção é “fazer o público questionar o que realmente nos torna humanos” e como a tecnologia redefine cada aspecto da vida moderna.

Expectativa e estreia

O longa estreou na última quinta-feira (9) e já divide opiniões: enquanto parte da crítica especializada mostra reservas, a recepção do público tem sido bastante positiva. A Disney aposta alto no sucesso do longa, que pode revitalizar o gênero de ficção científica nos cinemas, reacender o interesse por narrativas sobre inteligência artificial e abrir espaço para novas aventuras dentro desse universo digital.

A trilha sonora, assinada por Joseph Trapanese, sucessor do duo Daft Punk, também é um dos grandes atrativos do filme. “Tron: Ares” promete unir emoção, tecnologia e filosofia em uma experiência cinematográfica única, que dialoga com o futuro digital que já começa a se tornar realidade e convida o público a refletir sobre os próximos passos da evolução humana e tecnológica.

Elon Musk investe US$ 20 bilhões em sua nova startup de inteligência artificial

O bilionário Elon Musk, além de ser possuir as empresas Space X e Tesla, fundou em março deste ano, a sua startup de inteligência artificial, a xAI Holdings. E para competir no mercado, o empresário decidiu investir pesado no setor.

Segundo informações divulgadas pelo portal Bloomberg, a empresa multinacional Nvidia investirá US$ 2 bilhões do montante previsto por Musk. A companhia é responsável pela fabricação de unidades de processamentos gráficos e sistema de unidade de chips para computadores.

Investimento pesado

A manobra de Elon Musk para investimento em inteligência artificial está sendo vista como uma das mais audaciosas da história. O enorme esforço de financiamento, que inclui capital e dívida, sublinha a ambição da xAI de fortalecer a sua infraestrutura de IA e competir com gigantes da indústria como a OpenAI.

No total, os valores serão divididos em aproximadamente US$ 7,5 bilhões em capital próprio de Musk e até US$ 12,5 bilhões em dívida por meio de uma sociedade anônima. E esta sociedade anônima comprará os processadores da Nvidia diretamente e os arrendará para a xAI por cinco anos, com a dívida garantida pelas próprias GPUs, e não por ativos corporativos.

Os fundos serão usados ​​principalmente para adquirir os chips avançados de inteligência artificial da Nvidia para o próximo data center Colossus 2 da xAI, localizado em Memphis, estado americano do Tennessee.

O supercomputador Colossus 1 já está em operação, com cerca de 200 mil chips da Nvidia, sendo este o centro da Grok, a inteligência artificial utilizada no X (antigo Twitter). O objetivo de Musk com Colossus 2 é que ele possua aproximadamente 500 mil chips, chegando futuramente a marca de 1 milhão.

Para suprir o altíssimo consumo de energia do supercomputador, o empresário planeja construir uma mega usina, com capacidade para gerar o equivalente a 1 gigawatt de eletricidade. O valor é capaz de abastecer aproximadamente 800 mil casas.


Elon Musk e o fundador da Nvidia, Jensen Huang (Foto: reprodução/X/@DimaZeniuk)

Outros investidores

Com o grande investimento de Musk no mercado de inteligência artificial, outras empresas demonstraram interesse. A Apollo Global Management e a Diameter Capital Partners decidiram participar da parcela da dívida, com a Valor Capital liderando a parte de investimento.

Esse modelo permite que os investidores sejam reembolsados ​​ao longo do tempo, ao mesmo tempo, em que transfere o risco de depreciação do balanço patrimonial da xAI, um alívio crucial para uma empresa que está queimando caixa em um ritmo histórico. Analistas do setor observaram que a estrutura poderia se tornar um modelo para outros projetos de inteligência artificial com alto consumo de capital.

Inteligência artificial amplia denúncias de abuso infantil com deepfakes no Brasil

O avanço das tecnologias de inteligência artificial (IA) trouxe benefícios em diversas áreas, mas também abriu caminho para novas formas de crime. Um levantamento da SaferNet Brasil, divulgado em outubro de 2025, revela que o país registrou quase 50 mil denúncias de abuso e exploração sexual infantil envolvendo deepfakes e imagens geradas por IA apenas nos primeiros sete meses do ano. O número representa 64% das 76.997 denúncias de crimes digitais recebidas entre janeiro e julho.

O aumento das notificações coincidiu com a repercussão do vídeo “Adultização”, publicado em agosto pelo influenciador digital Felca, que abordava a exposição sexual de menores nas redes. Após o conteúdo viralizar, com mais de 46 milhões de visualizações, a SaferNet recebeu 6.278 novas denúncias, metade delas apenas nas semanas seguintes à publicação.


Felipe Bressanim pública vídeo em rede social alertando sobre os perigos da adultização (Vídeo: reprodução/Instagram/@felca0)

A organização, que atua na defesa dos direitos humanos na internet, identificou ocorrências em dez estados brasileiros, com destaque para São Paulo, Minas Gerais, Rio de Janeiro e Paraná. Casos envolvendo estudantes e escolas chamaram a atenção: quatro registros em instituições paulistas indicam que o problema também afeta adolescentes e ambientes educacionais

Deepfakes e a nova fronteira do crime digital

A pesquisa aponta uma tendência alarmante: o uso crescente de IA generativa para produzir e disseminar imagens e vídeos sexualizados de crianças e adolescentes. Com apenas alguns cliques, qualquer pessoa pode criar deepfakes, fotos manipuladas ou animações que imitam vozes e rostos reais, utilizando aplicativos amplamente disponíveis na internet.

Esses materiais, segundo a SaferNet, circulam em redes sociais, aplicativos de mensagens e sites de conteúdo adulto, frequentemente sem qualquer tipo de moderação. O resultado é devastador para as vítimas, que enfrentam assédio, bullying e traumas psicológicos prolongados, já que as imagens dificilmente são removidas de forma definitiva.

Outro fator agravante é a omissão das plataformas de pornografia, que frequentemente hospedam esse tipo de conteúdo sem filtros adequados. A ausência de ferramentas eficazes de verificação e denúncia cria um ambiente propício para o compartilhamento de material ilegal, incluindo imagens criadas artificialmente com o rosto de menores de idade.

Desafios legais e necessidade de ação imediata

A SaferNet já vinha alertando sobre o avanço dessa prática desde 2024, quando identificou um grupo com mais de 46 mil membros vendendo deepfakes de celebridades brasileiras por valores que variavam de R$ 19,90 a R$ 25. A nova pesquisa aponta 95 denúncias envolvendo diretamente o termo “inteligência artificial”, sendo 12 referentes a um único site que hospedava material de abuso infantil. A ONG reforça que os números representam apenas “a ponta do iceberg”, indicando subnotificação e falta de rastreamento das vítimas.

Para Juliana Cunha, diretora da SaferNet e responsável pelo estudo, o fenômeno está evoluindo rapidamente e exige uma resposta coordenada: “Empresas de tecnologia precisam desenvolver mecanismos de prevenção; o poder público deve regulamentar e fiscalizar; e a sociedade civil tem papel fundamental na conscientização e na denúncia”, afirmou.

A criação e divulgação de imagens manipuladas com conteúdo sexual envolvendo menores é crime previsto no Código Penal brasileiro, podendo gerar responsabilização civil e criminal. Especialistas reforçam a urgência de educação digital nas escolas, campanhas de prevenção e políticas internas que coíbam o compartilhamento de imagens falsas — um passo essencial para conter uma das faces mais perigosas da era da inteligência artificial.

Amazon aposta em vigilância por IA junto à polícia

A Amazon estaria lançando uma estratégia agressiva para promover o uso de ferramentas de vigilância baseadas em inteligência artificial (IA) em agências policiais. A proposta levanta debates importantes sobre até que ponto a segurança pública justifica o uso massivo de reconhecimento facial, monitoramento automático e integração de dados pessoais, além de quais barreiras legais, éticas e de privacidade precisam ser respeitadas

Foi oferecida à polícia a sua tecnologia Rekognition, que permite reconhecer, rastrear e identificar pessoas a partir de imagens capturadas por câmeras de segurança, drones, câmeras corporais (body cams).

A Amazon, por meio de sua divisão de computação em nuvem (AWS), também desenvolverá mecanismos para facilitar que agências governamentais acessem essas soluções com menor atrito, por exemplo, oferecendo integrações, demonstrações ou modelos de precificação que reduzem o custo de adoção.

Há relatos de que essas tecnologias têm sido testadas ou usadas em diferentes jurisdições, com capacidade de comparar rostos identificados em tempo real ou quase real com bancos de dados de pessoas procuradas, ou com perfis suspeitos.

Motivações da Amazon

A iniciativa da Amazon é motivada principalmente pela expansão de mercado e pela pressão competitiva. A empresa busca lucrar com o crescente setor de tecnologias de vigilância por IA, reforçando seu papel como fornecedora de infraestrutura para governos. Ao mesmo tempo, quer se manter à frente de concorrentes como Google, Microsoft e Palantir, oferecendo soluções mais acessíveis, integradas e eficientes.


Câmera corporal da polícia (Reprodução/Matthew Horwood/Getty Images Embed)

Além da utilidade pública, frequentemente usado pela empresa para justificar suas ações. A Amazon defende que suas ferramentas podem ajudar a encontrar pessoas desaparecidas, combater crimes com mais rapidez e melhorar a resposta a emergências. Ao destacar esses benefícios sociais, a companhia tenta reforçar a imagem de que suas tecnologias não representam apenas uma oportunidade comercial, mas também um instrumento de apoio à segurança e ao bem-estar coletivo. No entanto, críticos alertam que essa narrativa pode mascarar riscos sérios à privacidade e à liberdade individual, especialmente quando tais sistemas são implementados sem regulação adequada.

Problemas e riscos levantados

A iniciativa da Amazon levanta sérias preocupações sobre privacidade e vieses. O uso massivo de reconhecimento facial envolve coleta de dados biométricos de pessoas que muitas vezes não consentiram ou sequer sabem que estão sendo monitoradas. Além disso, pesquisas mostram que essas tecnologias apresentam mais erros com mulheres, pessoas negras e idosos, o que pode resultar em identificações incorretas, perseguições injustas e até prisões equivocadas.

Outro ponto crítico é a legislação insuficiente e os riscos aos direitos civis. Em muitos países, as leis ainda não definem limites claros para o uso da vigilância por IA, deixando brechas para práticas invasivas. A vigilância generalizada compromete liberdade de ir e vir, anonimato e privacidade, criando um ambiente de controle constante que pode minar valores democráticos.

Exemplos e antecedentes

Amazon já se envolveu no passado com controvérsias sobre seu produto Rekognition e seu uso por agências policiais. Grupos de direitos civis nos EUA (como ACLU) têm criticado esse uso, alertando para os riscos de abuso. Em 2020, a Amazon anunciou uma moratória de um ano para o uso da Rekognition por órgãos policiais, citando preocupações sobre regulamentação e uso responsável.

Também há debates sobre dispositivos mais “domésticos”, como as câmeras da linha Ring, que pertencem à Amazon, que já foram criticadas por facilitar o acesso policial a imagens privadas e potencialmente ampliar a vigilância comunitária.

Implicações políticas, sociais e jurídicas

Governos e órgãos reguladores precisam definir regras claras para o uso de IA e biometria na segurança pública, estabelecendo limites, condições e salvaguardas. Sociedade civil, acadêmicos e instituições de proteção de dados têm papel central em fiscalizar e propor limites, evitando a criação de uma infraestrutura de vigilância padrão sem controle. Transparência sobre contratos, políticas de uso, auditorias e relatórios públicos é fundamental.

A iniciativa da Amazon pode marcar um avanço tecnológico na segurança pública, mas carrega riscos significativos: erosão de direitos civis, discriminação e perda de privacidade. O debate não é proibir a tecnologia, mas garantir que seu uso seja legítimo, proporcional e compatível com valores democráticos, exigindo diálogo contínuo entre empresas, governos, academia e sociedade civil.

Vozes sintéticas criadas por IA estão muito semelhantes a vozes humanas, diz estudo

Recentemente, uma pesquisa mostrou a evolução das vozes geradas por inteligência artificial, que são construídas em ferramentas de síntese de voz de última geração. Hiper-realistas, os áudios artificiais estão cada vez mais se tornando impossíveis de diferenciar dos sons reais e áudios humanos, a conclusão dos estudos afirma que o ouvinte médio não consegue mais distinguir qual é qual.

Douglas Torres, um brasileiro especialista em inteligência artificial e CEO da YUP AI, chegou a analisar a pesquisa e como a tecnologia está deixando de ser apenas robótica e se tornando aos poucos mais humanizada, para o bem e o para o mal. “As vozes [artificiais] já carregam emoção, contexto e até o tom de voz.” contou Douglas.

Para realizar a pesquisa, um grupo selecionado avaliou as vozes reproduzidas e escolheram quais soavam mais realistas, dominantes e confiáveis.

Evolução rápida

Para a Dra. Nadine Lavan, professora sênior de psicologia na Queen Mary University of London, universidade que fez o estudo, era apenas uma “questão de tempo” até que os aprimoramentos da tecnologia de IA produzisse falas mais naturais e menos computadorizadas. Lavan também foi coautora da pesquisa.

O objetivo central da pesquisadora é entender como as pessoas percebem essas vozes hiper-realistas agora que as ferramentas estão mais sofisticadas e acessíveis, para a tese, Dra. Nadine contou que os áudios foram criados de forma simples e rápida, demonstrando de início a capacidade atual dessa tecnologia.


Como o Vishing consegue capturar dados pessoais? (Vídeo: reprodução/Youtube/@senaisaopauloSP)

Golpes de vishing

Nos últimos anos, um tipo de golpe por telefone começou a circular pelo Brasil e outros países, chamado “Vishing”. Nele, mistura-se vozes sintetizadas com o golpe de fraude digital, o “pishing”, criando ligações telefônicas onde o criminoso engana a vítima atrás de dados confidenciais, muitas vezes bancários, senhas ou conseguindo autorização para realizar transferências utilizando vozes falsas que imitam a programação de bancos ou até de familiares de quem recebeu a ligação.

A inteligência artificial infelizmente também é usada em outros crimes como golpes por pix que funcionam a base do “Deepfake”, onde são criados vídeos de autoridades ou figuras públicas divulgando investimentos de alta rentabilidade, pedidos de ajuda e arrecadação de dinheiro totalmente falsos.

Acessibilidade e educação

Pelos estudos, a professora sênior acredita que entre casos negativos, ainda sim é possível encontrar formas de usufruir da ferramenta além de enganar os ouvintes.

Com vozes mais humanas, algo que cria mais conforto entre o robô e o usuário as vozes sintéticas com uma alta qualidade, podem ser usadas na comunicação, educação e para acessibilidade, aprimorando situações tanto do cotidiano quanto em áreas específicas de aprendizado e convivência, para pessoas com deficiência ou não.