Cientistas líderes no desenvolvimento da inteligência artificial (IA) alertaram na segunda-feira (16) sobre a necessidade de um sistema global de supervisão para avaliar os riscos associados a essa tecnologia em rápida evolução, já que a preocupação central gira em torno da capacidade da Inteligência artificial futuramente ser capaz de superar habilidades humanas, levando ao descontrole e às consequências catastróficas, principalmente com ferramentas como o ChatGPT ganhando destaque e sendo integradas em diversos setores, incluindo smartphones e veículos, o regulamento da IA se torna um desafio significativo para países como os EUA e a China, que estão na vanguarda desse desenvolvimento.
A reunião em Veneza foi realizada em um edifício pertencente ao bilionário filantropo Nicolas Berggruen e promovida pelo Fórum de IA Segura, discutiu a urgência em que os governos entendem os estudos em IA e criam um mecanismo capaz de comunicar quanto aos riscos sem expor informações sensíveis. O objetivo é estabelecer a criação de autoridades nacionais de segurança em IA, que pensem em conjunto, diretrizes e sistemas de alerta, sob a supervisão de um órgão regulador internacional para lidar de forma eficaz com essa tecnologia emergente.
Destacando a importância do diálogo entre cientistas de diferentes nações, principalmente pela competição acirrada por tecnologia, foi estabelecida uma declaração em consenso por especialistas renomados, incluindo Yoshua Bengio, Andrew Yao e Geoffrey Hinton, todos vencedores do Prêmio Turing, o Nobel de computação. Com a rápida evolução da IA, debates dessa natureza são importantes devido à falta de um plano de contenção que garanta a segurança da humanidade.
Avanços da IA
Cientistas pioneiros que lideraram o desenvolvimento da inteligência artificial (IA) estão pedindo a criação de um sistema global de supervisão. O objetivo é avaliar os riscos potenciais e graves que a tecnologia em rápido desenvolvimento pode representar.
O surgimento do ChatGPT e de serviços semelhantes que geram textos e imagens sob demanda destaca os avanços inovadores da IA. Com a rápida comercialização da tecnologia, a IA tornou-se presente em smartphones, veículos e ambientes educacionais. Governos, de Washington a Pequim, estão sendo desafiados regularmente e aproveitando essa tecnologia emergente.
Declaração dos cientistas
Um grupo de cientistas influentes de IA se manifestou na segunda-feira (16) suas preocupações sobre os perigos da tecnologia que ajudam a desenvolver. Eles alertaram que, em breve, a IA poderia superar as capacidades humanas, resultando em uma possível “perda de controle” e que seu uso malicioso poderia ter consequências catastróficas para a humanidade.
Ilustração de Ai dentro da caixa craniana. (Reprodução/CARME PARRAMON/DigitalVision Vectors/Getty Images Embed)
Falta de plano de contingência
Gillian Hadfield, estudiosa do direito e professora de ciência da computação e governo na Universidade Johns Hopkins, destacou que não existe um plano para conter sistemas de IA que possam desenvolver habilidades perigosas. Em um cenário de catástrofe, ela questionou: “Quem você vai chamar?”
IA em tela de computador e livros empilhados ao fundo do aparelho (Foto: reprodução/NurPhoto/Getty Images Embed)
De 5 a 8 de setembro, Hadfield e outros cientistas de todo o mundo se reuniram em Veneza para discutir propostas na terceira reunião dos Diálogos Internacionais sobre Segurança de IA. O evento foi organizado pelo Fórum de IA Segura, uma iniciativa de um grupo de pesquisa sem fins lucrativos dos EUA, conhecido como Far.AI.
O grupo enfatizou a importância de que os governos compreendam as atividades em laboratórios de pesquisa e empresas que desenvolvem IA. É necessário um mecanismo que permita a comunicação sobre riscos sem exigência de compartilhamento de informações proprietárias entre concorrentes.
A proposta
Cientistas olham atentamente para um tablet (Foto: reprodução/Digital Vision/Solskin/Getty Images Embed)
Os cientistas sugerem que os países criem autoridades de segurança de IA que registrem sistemas dentro de suas fronteiras. Essas autoridades colaborariam para definir linhas vermelhas e sinais de alerta, como a capacidade de um sistema de IA se reproduzir ou enganar seus criadores, tudo sob a supervisão de um órgão internacional.
Colaboração internacional
A declaração foi assinada por cientistas de diversos países, incluindo EUA, China, Grã-Bretanha, Cingapura e Canadá. Entre os signatários estão figuras renomadas no campo da IA, como Yoshua Bengio (reconhecido por suas contribuições ao campo e frequentemente chamadas de um dos pioneiros da área), Andrew Yao (cujas aulas na Universidade Tsinghua, em Pequim, deram formação aos fundadores das principais empresas de tecnologia da China) e Geoffrey Hinton (um cientista inovador que atuou por dez anos no Google), todos vencedores do Prêmio Turing, o Nobel de computação.
O grupo também conta com a participação de cientistas de diversas instituições de pesquisa renomadas em IA da China, algumas das quais recebem financiamento estatal e oferecem consultoria ao governo. Entre os membros, estão ex-funcionários públicos, como Fu Ying, ex-diplomata e membro do ministério das Relações Exteriores da China, e Mary Robinson, ex-presidente da Irlanda. Recentemente, o grupo se reuniu em Pequim para atualizar altos funcionários chineses sobre suas discussões.
Cientistas chineses e ocidentais
A reunião em Veneza foi um espaço raro para o diálogo entre cientistas chineses e ocidentais, sendo uma troca científica importante, especialmente em um contexto de competição tecnológica acirrada entre as duas superpotências geopolíticas. Bengio, um dos fundadores do grupo, em uma entrevista, comparou esse encontro a intercâmbios entre cientistas americanos e soviéticos durante a Guerra Fria, que ajudaram a prevenir uma catástrofe nuclear.
Desafios futuros da IA
Os cientistas confirmaram que a rapidez das mudanças na tecnologia torna difícil para empresas e governos decidirem individualmente como abordá-la. Fu Hongyu, diretor de governança de IA no instituto de pesquisa da Alibaba, AliResearch, ressaltou que a colaboração é crucial, afirmando: “Não é como regular uma tecnologia madura. Ninguém sabe como será o futuro da IA.”
A ausência de um plano eficaz para conter sistemas de inteligência artificial com potencial para desenvolver habilidades perigosas gerou intensos debates entre cientistas renomados e ganhou a atenção de líderes mundiais. Este cenário destaca a necessidade urgente de estabelecer um consenso e implementar medidas que visem mitigar possíveis danos à humanidade.
Foto Destaque: ilustração de uma mão segurando uma caixa craniana e dentro escrito IA. (Reprodução/Surasak Suwanmake/Getty Images Embed)