Especialistas contam quais os maiores riscos do uso da Inteligência Artificial

Gary Marcus alerta sobre riscos da IA como desinformação, deepfakes e manipulação de mercado; ele defende uma agência reguladora para mitigar impactos

16 out, 2024

Gary Marcus, especialista em inteligência artificial, publicou um novo livro sobre os principais riscos da inteligência artificial. O livro intitulado “Taming Silicon Valley: How We Can Ensure That AI Works for Us” (Domando o vale do Silício: como podemos garantir que a IA funcione para nós em tradução literal) foi publicado no dia 17 de setembro, pela The MIT Press.

Na obra, o autor diz que a longo prazo, não saberemos criar uma IA que seja segura e confiável o que pode acarretar problemas“Como, em algum momento, a IA substituirá a maioria dos empregos, e um pequeno grupo de oligarcas concentrará grande parte do dinheiro, talvez precisemos de uma renda básica universal” afirmou o especialista.

Inteligência Artificial é essencial

Marcus também defende a criação de uma agência reguladora para a inteligência artificial, uma vez que, segundo o autor, a inteligência artificial está “transformando tudo” e, portanto, uma agência que atue de forma dinâmica e reduza os riscos da nova tecnologia seria indispensável.

Em seu livro, Marcus alerta que “precisamos nos manifestar e insistir que descartaremos líderes que entreguem o controle às grandes empresas de tecnologia. O momento para boicotar a IA generativa pode estar próximo”.


Capa do livro de Gary Marcus (Foto: reprodução/Amazon.com)


12 Perigos causados pela Inteligência Artificial

Segundo o livro de Gary Marcus, os perigos imediatos provocados pela inteligência artificial são, em média, doze. A começar pela desinformação politica em massa e automatizada. O especialista diz que os sistemas de IA generativas são como “bombas nucleares” da desinformação e acabam sendo mais rápidas, baratas e eficientes.

O segundo risco é sobre manipulação de mercado. No livro o autor dá exemplo de como pode agentes mal-intencionados podem tentar influenciar mercados: “Alertei o Congresso sobre essa possibilidade em 18 de maio de 2023; quatro dias depois, isso se tornou realidade: uma imagem falsa do Pentágono em chamas se espalhou pela internet e fez a bolsa cair brevemente.”


Marcus, em seu perfil do X, cita em sua obra os malefícios da IA. (Foto: reprodução/@GaryMarcus/X)


Em terceiro está a desinformação acidental, ou seja, mesmo quando não há intenção de passar informações falsas, a própria tecnologia pode geral desinformação por acidente. Seguido de difamação, que como explica o autor, um caso específico é dano a reputação de indivíduos.

Outro perigo seriam as deepfakes não consensuais: “Deepfakes estão cada vez mais realistas. Em outubro de 2023, alguns estudantes começaram a usar IA para criar imagens de teor sexual falsas e não autorizadas de colegas”.

A lista também incluir a facilitação de crimes, como clonagem de voz; cibersegurança onde a IA pode descobrir falhas de segurança em softwares e celulares que antes só poderia ser realizado por especialistas; discriminação e preconceito; privacidade e vazamento de dados; uso não autorizado de propriedade intelectual; dependência excessiva de sistemas pouco confiáveis e impactos ambientais.

Foto destaque: Gary Marcus, especialista em Inteligência Artificial (Reprodução: Horácio Villalobos/Getty Imagens Embed)

Mais notícias