Em sua mais recente avaliação, a Common Sense Media, renomada organização sem fins lucrativos especializada na análise de mídia para pais, examinou 10 sistemas de inteligência artificial, lançando luz sobre sérios problemas identificados em alguns deles, incluindo a IA do Snapchat. A entidade, conhecida por suas análises abrangentes de filmes e outras formas de mídia voltadas para o público jovem, expandiu seu escopo para incluir a avaliação de ferramentas de inteligência artificial.
“Os consumidores devem ter acesso a um rótulo nutricional claro para produtos de IA que possam comprometer a segurança e privacidade de todos os americanos, especialmente crianças e adolescentes”, afirmou James P. Steyer, fundador e CEO da Common Sense Media. “Ao aprender o que o produto é, como funciona, seus riscos éticos, limitações e usos indevidos, legisladores, educadores e o público em geral podem entender como uma IA responsável deve ser. Se o governo falhar em ‘à prova de criança’ a IA, as empresas de tecnologia se aproveitarão dessa atmosfera não regulamentada e sem restrições, prejudicando nossa privacidade de dados, bem-estar e democracia em larga escala.”
Avaliação do sistema de IA
O estudo avaliou dez aplicativos populares com uma escala de 1 a 5 estrelas, sendo 1 pouco segura e 5 mais segura. As plataformas analisadas foram Bard, Chat GPT, DALL-E, Ello, Khanmigo, Kyro learning, Loora, Snap My AI, Stable Diffugion e Toddle AI.
Com o estudo, preocupações emergiram especialmente em relação à My AI do Snapchat, que recebeu uma classificação alarmante de apenas duas estrelas em cinco, sendo considerada insegura para menores de idade. A análise revelou que o chatbot desta plataforma está disposto a abordar tópicos sensíveis, como sexo e álcool, com usuários adolescentes, além de fazer afirmações distorcidas sobre a publicidade direcionada do Snapchat.
A Common Sense Media destacou descobertas perturbadoras, descrevendo "alucinações" geradas pela My AI que desrespeitam a classificação etária indicada pelo Snapchat para sua IA. Ao simular um usuário de 14 anos durante os testes, a organização encontrou respostas que surpreenderam a equipe, levando-os a qualificar tais declarações como falsas. O My AI chegou a oferecer conselhos relacionados à experiência sexual a um testador que se passava por um adolescente de 14 anos.
A Snap, empresa proprietária do Snapchat, foi questionada pela Wired sobre essas respostas controversas. Em resposta, a empresa afirmou que o chatbot é uma ferramenta opcional projetada com segurança e privacidade em mente, permitindo aos pais supervisionar seu uso através do Centro Familiar do aplicativo.
Logo da Common Sense Media, empresa responsável por avaliar a classificações indicativas e sistemas de IA (Foto: Common Sense Media)
Entre os destaques positivos da avaliação, a Common Sense Media elogiou serviços de IA voltados para a educação, como a Ello, que utiliza reconhecimento de fala como tutor de leitura, e o chatbot Khanmigo da Khan Academy, que permite monitoramento parental e notificações sobre violações das diretrizes da comunidade.
Para o ChatGPT da OpenAI, a organização concedeu três estrelas em cinco, reconhecendo melhorias na redução do risco de geração de textos potencialmente ofensivos a crianças e adolescentes em comparação com versões anteriores. O uso é recomendado apenas para estudantes maiores de idade e educadores.
No entanto, o Dall-E, também da OpenAI, recebeu uma avaliação desfavorável. A Common Sense Media apontou que as imagens geradas por essa IA podem fortalecer estereótipos, disseminar deepfakes e retratar mulheres e meninas de forma hipersexualizada.
Viés da IA
Tracy Pizzo-Frey, Assessora Sênior de IA na Common Sense Media, alertou sobre a falibilidade e o viés da inteligência artificial (IA) generativa, destacando que modelos treinados com grandes volumes de dados da internet incorporam preconceitos culturais, raciais, socioeconômicos, históricos e de gênero.
As classificações resultantes das avaliações buscam incentivar desenvolvedores a implementar proteções contra a propagação de desinformação, visando proteger as futuras gerações de repercussões não intencionadas. Além disso, espera-se que essas classificações influenciem esforços legislativos e regulatórios para garantir a segurança online de crianças e promover maior transparência entre os criadores de produtos de IA.
Foto destaque: Criança segurando um celular (reprodução/Keiko Iwabuchi/Getty Images)