Tech

Cientistas discutem propostas em prol de um sistema global de supervisão de IA

Eles alertam que, em breve, a IA pode superar seus criadores, e que o descontrole ou uso malicioso trarão consequências catastróficas para o mundo

27 Set 2024 - 08h00 | Atualizado em 27 Set 2024 - 08h00
Cientistas discutem propostas em prol de um sistema global de supervisão de IA Lorena Bueri

Cientistas líderes no desenvolvimento da inteligência artificial (IA) alertaram na segunda-feira (16) sobre a necessidade de um sistema global de supervisão para avaliar os riscos associados a essa tecnologia em rápida evolução, já que a preocupação central gira em torno da capacidade da Inteligência artificial ​​futuramente ser capaz de superar habilidades humanas, levando ao descontrole e às consequências catastróficas, principalmente com ferramentas como o ChatGPT ganhando destaque e sendo integradas em diversos setores, incluindo smartphones e veículos, o regulamento da IA ​​se torna um desafio significativo para países como os EUA e a China, que estão na vanguarda desse desenvolvimento. 

A reunião em Veneza foi realizada em um edifício pertencente ao bilionário filantropo Nicolas Berggruen e promovida pelo Fórum de IA Segura, discutiu a urgência em que os governos entendem os estudos em IA e criam um mecanismo capaz de comunicar quanto aos riscos sem expor informações sensíveis. O objetivo é estabelecer a criação de autoridades nacionais de segurança em IA, que pensem em conjunto, diretrizes e sistemas de alerta, sob a supervisão de um órgão regulador internacional para lidar de forma eficaz com essa tecnologia emergente. 

Destacando a importância do diálogo entre cientistas de diferentes nações, principalmente pela competição acirrada por tecnologia, foi estabelecida uma declaração em consenso por especialistas renomados, incluindo Yoshua Bengio, Andrew Yao e Geoffrey Hinton, todos vencedores do Prêmio Turing, o Nobel de computação. Com a rápida evolução da IA, debates dessa natureza são importantes devido à falta de um plano de contenção que garanta a segurança da humanidade.

Avanços da IA

Cientistas pioneiros que lideraram o desenvolvimento da inteligência artificial (IA) estão pedindo a criação de um sistema global de supervisão. O objetivo é avaliar os riscos potenciais e graves que a tecnologia em rápido desenvolvimento pode representar.

O surgimento do ChatGPT e de serviços semelhantes que geram textos e imagens sob demanda destaca os avanços inovadores da IA. Com a rápida comercialização da tecnologia, a IA tornou-se presente em smartphones, veículos e ambientes educacionais. Governos, de Washington a Pequim, estão sendo desafiados regularmente e aproveitando essa tecnologia emergente.

Declaração dos cientistas

Um grupo de cientistas influentes de IA se manifestou na segunda-feira (16) suas preocupações sobre os perigos da tecnologia que ajudam a desenvolver. Eles alertaram que, em breve, a IA poderia superar as capacidades humanas, resultando em uma possível “perda de controle” e que seu uso malicioso poderia ter consequências catastróficas para a humanidade. 


Incorporar ao Getty Imagens

 Ilustração de Ai dentro da caixa craniana. (Reprodução/CARME PARRAMON/DigitalVision Vectors/Getty Images Embed)


Falta de plano de contingência

Gillian Hadfield, estudiosa do direito e professora de ciência da computação e governo na Universidade Johns Hopkins, destacou que não existe um plano para conter sistemas de IA que possam desenvolver habilidades perigosas. Em um cenário de catástrofe, ela questionou: “Quem você vai chamar?”


Incorporar ao Getty Imagens

IA em tela de computador e livros empilhados ao fundo do aparelho (Foto: reprodução/NurPhoto/Getty Images Embed)


De 5 a 8 de setembro, Hadfield e outros cientistas de todo o mundo se reuniram em Veneza para discutir propostas na terceira reunião dos Diálogos Internacionais sobre Segurança de IA. O evento foi organizado pelo Fórum de IA Segura, uma iniciativa de um grupo de pesquisa sem fins lucrativos dos EUA, conhecido como Far.AI.

O grupo enfatizou a importância de que os governos compreendam as atividades em laboratórios de pesquisa e empresas que desenvolvem IA. É necessário um mecanismo que permita a comunicação sobre riscos sem exigência de compartilhamento de informações proprietárias entre concorrentes.

A proposta


Incorporar ao Getty Imagens

Cientistas olham atentamente para um tablet (Foto: reprodução/Digital Vision/Solskin/Getty Images Embed)


Os cientistas sugerem que os países criem autoridades de segurança de IA que registrem sistemas dentro de suas fronteiras. Essas autoridades colaborariam para definir linhas vermelhas e sinais de alerta, como a capacidade de um sistema de IA se reproduzir ou enganar seus criadores, tudo sob a supervisão de um órgão internacional.

Colaboração internacional

A declaração foi assinada por cientistas de diversos países, incluindo EUA, China, Grã-Bretanha, Cingapura e Canadá. Entre os signatários estão figuras renomadas no campo da IA, como Yoshua Bengio (reconhecido por suas contribuições ao campo e frequentemente chamadas de um dos pioneiros da área), Andrew Yao (cujas aulas na Universidade Tsinghua, em Pequim, deram formação aos fundadores das principais empresas de tecnologia da China) e Geoffrey Hinton (um cientista inovador que atuou por dez anos no Google), todos vencedores do Prêmio Turing, o Nobel de computação.

O grupo também conta com a participação de cientistas de diversas instituições de pesquisa renomadas em IA da China, algumas das quais recebem financiamento estatal e oferecem consultoria ao governo. Entre os membros, estão ex-funcionários públicos, como Fu Ying, ex-diplomata e membro do ministério das Relações Exteriores da China, e Mary Robinson, ex-presidente da Irlanda. Recentemente, o grupo se reuniu em Pequim para atualizar altos funcionários chineses sobre suas discussões.

Cientistas chineses e ocidentais

A reunião em Veneza foi um espaço raro para o diálogo entre cientistas chineses e ocidentais, sendo uma troca científica importante, especialmente em um contexto de competição tecnológica acirrada entre as duas superpotências geopolíticas. Bengio, um dos fundadores do grupo, em uma entrevista, comparou esse encontro a intercâmbios entre cientistas americanos e soviéticos durante a Guerra Fria, que ajudaram a prevenir uma catástrofe nuclear.

Desafios futuros da IA

Os cientistas confirmaram que a rapidez das mudanças na tecnologia torna difícil para empresas e governos decidirem individualmente como abordá-la. Fu Hongyu, diretor de governança de IA no instituto de pesquisa da Alibaba, AliResearch, ressaltou que a colaboração é crucial, afirmando: “Não é como regular uma tecnologia madura. Ninguém sabe como será o futuro da IA.”

A ausência de um plano eficaz para conter sistemas de inteligência artificial com potencial para desenvolver habilidades perigosas gerou intensos debates entre cientistas renomados e ganhou a atenção de líderes mundiais. Este cenário destaca a necessidade urgente de estabelecer um consenso e implementar medidas que visem mitigar possíveis danos à humanidade.


Foto Destaque: ilustração de uma mão segurando uma caixa craniana e dentro escrito IA. (Reprodução/Surasak Suwanmake/Getty Images Embed) 

Lorena Bueri CEO, Lorena Bueri, madrinha perola negra lorena bueri, lorena power couple, lorena bueri paparazzi, Lorena R7, Lorena Bueri Revista Sexy, Lorena A Fazenda, Lorena afazenda, lorena bueri sensual, lorena gata do paulistão, lorena bueri gata do paulistão, lorena sexy, diego cristo, diego a fazenda, diego cristo afazendo