A Universidade de Zurique desenvolveu um estudo para provar que as pessoas acreditam mais em fake news quando elas são desenvolvidas pela inteligência artificial. A equipe do Instituto de Ética Biomédica e História da Medicina da universidade suíça realizou a pesquisa entre pessoas com formação universitária.
O estudo foi realizado com cerca de 700 pessoas. Foi solicitado aos participantes para que tentassem diferenciar a veracidade de tweets que foram escritos por pessoas reais e também por IA.
O resultado provou que, além de não identificar quais postagens foram escritas por humanos, os participantes acreditam mais em notícias falsas quando foram “escritas” por inteligência artificial. A pesquisa foi publicada na revista Science Advances.
Os temas escolhidos para as postagens analisadas foram assuntos comuns em fake news. Vacinas, política, tecnologia, desastres naturais e COVID-19 foram temas para os tweets.
Manipulação (Reprodução/Pixabay)
Segundo os pesquisadores, o estudo demonstra o perigo da IA. Da mesma maneira que ela consegue tornar a informação mais palatável ela também pode transformar notícias falsas em desinformação com credibilidade.
Especialistas já tinham percebido a capacidade que a inteligência artificial tem para tornar fake news notícias bem escritas e, até mesmo, criar notícias falsas. O apresentador de rádio americano Mark Walters foi acusado pelo Chat GPT de participar de uma fraude com desvio de fundos. A justiça comprovou que a alegação é falsa e a Open AI foi condenada por difamação.
"Era óbvio que o Chat GPT seria utilizado para finalidades criminosas. A criatividade para o bem sempre chega com mais vagar à cabeça humana. No entanto, acende-se a luz amarela em países que combatem fake news sem estratégia nenhuma, como o Brasil", explicou André Marsiglia, comentando um outro caso acontecido na China.
Os participantes na pesquisa além de possuírem formação universitária eram nativos e criados em países de Primeiro Mundo, como Estados Unidos e Reino Unido por exemplo.
Foto Destaque: Twitter. Reprodução/Pixabay