Palestrantes defendem a regulamentação de Big Techs em relação à IA

Durante o Web Summit Rio, duas palestrantes fizeram uma apresentação sobre a importância de responsabilizar empresas de tecnologia pelos riscos associados aos sistemas de inteligência artificial (IA). A presidente da fundação Signal, Meredith Whitakker, e a especialista em segurança Chelsea Manning afirmaram que as ferramentas de IA devem priorizar o interesse público, e não o de grandes empresas.


Ingressos para o evento já estão esgotados. (Reprodução/ Divulgação)


De acordo com Meredith, as tecnologias de IA exigem uma infraestrutura de servidores significativa e uma grande quantidade de dados, demandando recursos que apenas um grupo seleto de empresas, como Amazon, Microsoft e Google podem arcar. Por conta disso, se houver uma regulação sobre inteligência artificial, ela deve se concentrar nesses recursos que estão disponíveis apenas para as Big Techs.

A presidente da Signal, apontou que, apesar das grandes empresas de tecnologia defenderem a regulação, há influências políticas no Congresso tentando garantir que elas sejam as responsáveis por escrever essa regulação. Por isso, são necessárias medidas que exijam que, quando a IA for adotada, ela contemple o interesse público.

A outra palestrante, Chelsea Manning, que ficou conhecida por um enorme vazamento de documentos confidenciais dos Estados Unidos em 2010, afirmou que embora o interesse por IA seja novo, os riscos em torno dela são antigos. Para ela, a questão central está relacionada à forma como as empresas e desenvolvedores utilizam a inteligência artificial e o que é criado a partir dela.

A especialista em segurança destacou que, enquanto as empresas se movem rapidamente e quebram coisas, é preciso pensar nas consequências do que isso significa para as pessoas. 

As duas palestrantes concordam que as empresas de tecnologia precisam ser responsáveis pelos riscos potenciais dos sistemas de inteligência artificial. Elas também ressaltaram a necessidade de considerar as implicações das inovações tecnológicas para as pessoas.

A apresentação foi realizada durante o Web Summit Rio, considerado o maior evento de tecnologia do mundo e está sendo sediado pela primeira vez na cidade do Rio de Janeiro.

Foto destaque. Web Summit Rio (Reprodução/ Divulgação/Web Summit)

Vanguarda da IA deixa Google e alerta sobre os perigos da tecnologia

O homem conhecido mundialmente como o “padrinho” da inteligência artificial pediu demissão do Google, partindo com um aviso a respeito dos perigos emergentes no uso da popular tecnologia.

Geoffrey Hinton, que completou 75 anos em dezembro do ano passado, informou que se demitiu do Google arrependido de seu trabalho no campo de inteligência artificial, ao ser entrevistado pelo jornal americano The New York Times. Formado em psicologia cognitiva e um cientista da computação, Hinton declarou à BBC que alguns dos perigos apresentados pelos chatbots norteados por inteligências artificiais são “deveras assustadores”. 

“Até onde sei, eles não são mais inteligentes do que nós, no momento. Mas creio que isso pode deixar de ser verdade em breve.”, relatou ele. 

A importante pesquisa de Hinton sobre redes neurais e deep learning (aprendizagem profunda de IAs) abriu as portas para tecnologias atuais que envolvem inteligências artificiais, como o famoso ChatGPT. Em entrevista ao New York Times, Hinton falou de “pessoas mal-intencionadas” que provavelmente tentariam usar a IA para “coisas ruins”.

“Isso é, na pior das hipóteses, um pesadelo. Você pode imaginar uma pessoal mal-intencionada como Vladimir Putin, decidindo dar aos robôs a capacidade de criar subobjetivos próprios, por exemplo”, disse.

Além de comparar a inteligência artificial com a inteligência humana, que segundo Hint, a IA conseguiria superar fácil.

“O tipo de IA que está sendo desenvolvida possuí uma inteligência diferente da nossa. Somos seres biológicos e inteligências artificiais são digitais. A maior diferença é que, com IAs, há diversas cópias do mesmo “indivíduo”, vivendo no mesmo modelo de mundo. Essas cópias aprendem de maneira separada, mas compartilham conhecimento instantâneamente. Portanto, é como se tivéssemos 10 mil pessoas e sempre que uma delas aprende algo, todas automaticamente aprendem também. É assim que esses chatbots conseguem saber muito mais do que qualquer pessoa.”, explica. 


Tweet de Hilton sobre a sua demissão. Reprodução: Tweet. 


Através do Twitter, Hinton esclareceu mal-entendido após entrevista, deixando claro que não tinha a intenção de criticar o Google e que, na verdade, decidiu deixar a empresa justamente para que suas ações não a impactasse de forma negativa.

Posteriormente, Jeff Dean, que é cientista-chefe do Google, afirmou em um comunicado que a empresa permanece comprometida em abordar o desenvolvimento das inteligências artificiais de forma responsável e reiterou que, embora ainda estejam aprendendo a lidar com os riscos e problemas apresentados pela tecnologia emergente, também irão continuar inovando ousadamente.

Foto Destque: Geoffrey Hinton durante entrevista. Reprodução/Reuters

Brasileiros estão entre os que mais acreditam em IA, aponta estudo

De acordo com o “Trust in Artificial Intelligence“, um estudo feito pela empresa de consultoria KPMG que busca medir a receptividade das pessoas em relação ao uso de tecnologias como o ChatGPT, o Brasil está em quarto lugar entre os países com maior disposição na hora de confiar em inteligências artificiais.

Nos 17 países envolvidos na pesquisa, um total de 17.193 pessoas foram entrevistadas. O estudo constatou que, desse total, 61% têm certo receio de sistemas de IA, porém 39% dos participantes expressaram alguma disposição na hora de confiar. Em países emergentes como Brasil, China, África do Sul e Índia, há um grau de confiança maior na tecnologia. Liderando o índice de aceitação está a Índia, seguida pela China, África do Sul e, por fim, Brasil. A Finlândia está em último lugar no ranking.


Distribuição das pessoas entrevistadas pelo estudo “Trust in Artificial Inteligence”. (Foto: Reprodução/KPMG)


“O grande índice de aceitação por parte dos países BRICs é baseado em seu alto grau de disseminação. Isso é dependente, claro, de seu uso: IAs voltadas para atividades que envolvam a saúde é, por exemplo, o campo menos confiável e aceito”, diz o estudo. Ao perguntarem as pessoas sobre o que elas sentem ao pensarem no tema, pesquisadores descobriram que a maioria expressa reação positiva. As sensações mais comuns aparentam ser se sentir otimista, entusiasmado ou relaxado sobre a aplicação da tecnologia. Entretanto, menos da metade das pessoas também expressaram preocupação ou temor a respeito de aplicativos de IA. 

“Indivíduos que pensam positivamente no impacto das inteligências artificiais estão mais propensos a confiar na tecnologia, em geral. Contráriamente, pessoas que sentem emoções negativas quanto à IA parecem confiar menos. Em um estudo mais aprofundado, descobriu-se que as pessoas costumam expressar sentimentos conflitantes em relação à IA.”

O estudo também determinou que pessoas mais jovens, principalmente os Millenials e os da Geração Z, confiam e aceitam IAs com maior facilidade, enxergando a tecnologia com bons olhos mais frequentemente do que as gerações mais velhas. “Tais efeitos geracionais ocorreram na maioria dos países e são mais acentuados na Austrália e nos EUA. Na Austrália, por exemplo, cerca de 25% das gerações mais velhas confiam em IA, em comparação com os 42% da Geração X e Millenials. Cerca de 13% das gerações mais velhas aceitam IA em comparação com 34% de Millenials e a Geração Z. Por outro lado, na Coreia do Sul e na China, as gerações mais velhas tendem a confiar mais em IA do que as mais jovens.” 

O estudo ainda deixa claro que não há diferenças significativias entre homens, mulheres e outros gêneros no que remete ao grau de confiança, aceitação e sentimentos em relação à IA, mas em alguns países (EUA, Cingapura, Israel e Coreia do Sul, respectivamente), os homens se mostraram mais confiantes em relatar resultados positivos.

Foto destaque: códigos de programação. Reprodução/Unsplash.

Medidas são lançadas pela Apple e Google para evitar rastreamento de usuários

Nesta terça-feira (02) as empresas Apple e Google anunciaram que estão executando ações para evitar rastreamento não desejado de outras pessoas através do dispositivo Bluetooth, por exemplo a ferramenta AirTags que está relacionada, costuma ser utilizada para achar itens que foram perdidos pelos usuários.

As duas companhias fizeram apresentação de um projeto esclarecendo ações específicas para conter a ação indesejada de rastreamento. Estas ações tem o objetivo de exigir que todos os dispositivos que tiverem o Bluetooth em sua localização, deixem os usuários alertados sobre a ação indesejada nos aparelhos Android e IOS. Com isto os dispositivos terão mais proteção enquanto são manuseados.

A Apple e a Google em relação as decisões tomadas para o resultado do projeto, ainda disseram que opiniões de fabricantes de dispositivos e de grupos de defesa e segurança sobre as medidas de conter rastreamento, foram levadas em conta nas ações específicas feitas pelas empresas. E também deixaram claro que terão a empresa Tile e a companhia Samsung apoiando eles nas ações contra rastreamento apresentadas no projeto.


As airtags da Apple estão inseridas no bluetooth dos dispositivos (Foto: Reprodução/Mark Chan (Unsplash)/Canal tech)


A ferramenta AirTags presente no dispositivo Bluetooth deve ser colocada ou até colada aos objetos das pessoas como, bolsas, carteiras e chaves, para assim elas conseguirem encontrar a ferramenta quando perderem os itens citados acima. Esta também é uma ótima forma de ajudar os usuários com problemas pessoais através de funções possibilitadas pela tecnologia.

Porém como tudo pode ter seu lado negativo também, a Airtags já foi e ainda pode ser utilizada para atitudes maldosas e não apenas para boas ações, infelizmente. Especialistas em privacidade e policiais relataram que há pessoas que usam esta ferramenta para executar crimes desde o lançamento da mesma.

Em uma tentativa de elevar o nível da privacidade dos usuários, a Apple há dois anos, lançou um aplicativo detector para Android afim de auxiliar as pessoas a fazerem escaneio de AirTags que estão por perto ou de outros rastreadores de objetos parecidos que possam estar com outras pessoas sem os detentores saberem.

Foto destaque: Apple está lançando projeto contra o rastreamento. Reprodução/Ipadizaté.

Entenda como funciona a busca por vida extraterrestre e como a IA pode nos ajudar

Até o final do século XX, encontrar planetas fora do nosso sistema solar era uma verdadeira odisséia, e o Sol era a única estrela conhecida a abrigar planetas. Entretanto, graças aos avanços em tecnologia e ao trabalho de inúmeros astrônomos, a busca por exoplanetas resultou na descoberta de mais de 5.000 planetas, incluindo aqueles que podem ser semelhantes à Terra.



Exoplanetas. (Reprodução/DepositPhotos)


A descoberta do primeiro exoplaneta foi feita em 1995 por Michel Mayor e Didier Queloz, da Universidade de Genebra, com base em pesquisas do falecido astrônomo Carl Sagan. Essa descoberta abriu caminho para a busca de planetas além do nosso sistema solar, e, com o tempo, novas tecnologias têm ajudado a encontrar cada vez mais planetas e a entender melhor a formação de planetas.

Atualmente, é amplamente aceito que a formação de planetas é um fenômeno comum no universo e isso é relevante nos esforços do SETI (Busca por Inteligência Extraterrestre) em busca de sinais de vida inteligente no espaço.

Os astrônomos dessa área trabalham usando radiotelescópios para buscar por sinais de rádios que vêm do espaço e foram gerados por uma possível civilização extraterrestre.

Em 2015, o milionário e físico russo Yuri Millmer doou US$ 100 milhões para o projeto SETI “Breakthrough Listen” e a situação mudou. Com esse aporte, são gerados hoje em um único dia todos os dados já acumulados. A iniciativa contou também com o apoio de grandes nomes da física, como Stephen Hawking, que acompanhou a inauguração do projeto.

Acontece que a humanidade produz uma grande quantidade de ondas de rádio que contaminam o espaço e dificultam a detecção de sinais cósmicos, mas ao mesmo tempo, essas ondas de rádio poderiam ser uma forma de outras civilizações enviarem mensagens pelo espaço.

No entanto, as ondas de rádio geradas por nós atrapalham a detecção dos sinais externos, tornando difícil filtrar os sinais candidatos que merecem estudos mais exaustivos. O trabalho manual é impraticável e os cientistas usam algoritmos para separar os sinais de origem alienígena em categorias de sinal predefinidas, mas esses algoritmos podem perder sinais interessantes. 

Um novo método foi desenvolvido e publicado na revista Nature por Peter Ma, um matemático e físico da Universidade de Toronto. O objetivo do pesquisador é desenvolver uma nova sequência de algoritmos utilizando o aprendizado de máquina, uma técnica de inteligência artificial que aprimora em etapas. Após a inserção de um conjunto de dados, o sistema fornece uma resposta e se retroalimenta com os resultados corretos e incorretos para aprimorar-se em cada etapa.

Foto destaque. Planeta Terra e estrelas (Reprodução/Istock)

Estudo testa a qualidade do ChatGPT em reconhecer girías brasileiras

Um estudo conduzido pela Preply, uma plataforma de e-learning, teve como objetivo verificar a habilidade do ChatGPT em reconhecer as principais gírias e expressões populares utilizadas no Brasil.


OpenAI é a criadora do ChatGPT. (Reprodução/Pexels)


Ao ser exposto a um conjunto de 100 regionalismos típicos de todas as regiões do Brasil, a ferramenta atribuiu um significado alternativo – não necessariamente incorreto, mas diferente do seu sentido mais comum – a 19% das expressões testadas.

Entre os termos mal “explicados” estão “queixar”, que no vocabulário popular baiano significa flertar ou convidar alguém para sair, e não expressar aborrecimento como inicialmente interpretado pela tecnologia.

Algo semelhante aconteceu com o termo “peidado”, comumente usado em Alagoas para descrever que uma pessoa está indignada ou furiosa, mas a ferramenta interpretou como alguém que está muito bêbado.

Para a maioria das palavras, no entanto, bastou a pergunta “qual o significado da gíria x?” para que o bot desse uma resposta considerável. Em determinadas situações, houve a necessidade de acrescentar informações para contextualizar, como indicar o estado de origem da palavra ou a região em que ela é mais frequente.

A resposta para as perguntas foi consultada na própria ferramenta, que foi treinada com uma grande quantidade de textos e dados de linguagem natural para captar múltiplos diálogos e contextos. Embora a tecnologia seja capaz de entender e reconhecer muitas palavras comuns em diferentes contextos, incluindo gírias e expressões informais, é importante lembrar que, por ser uma inteligência artificial, o ChatGPT está sujeito a cometer erros, como demonstrou a pesquisa da Preply.

Segundo a OpenAI, o desenvolvimento da ferramenta é baseado em redes neurais e machine learning com foco em diálogos virtuais, e é semelhante à tecnologia de assistentes virtuais como a Alexa, da Amazon, e o Google Assistant.

Entretanto, o ChatGPT admite que sua habilidade em processar a linguagem natural é limitada em comparação com a de um ser humano, o que implica que ele pode não estar completamente ciente de algumas nuances culturais importantes para interpretar nossas expressões de maneira adequada.

Foto destaque. Códigos (Reprodução/Pixabay)

Papa reflete sobre o uso da tecnologia avançada entre os humanos e o limite deste uso

O Papa Francisco falou sobre a tecnologia e seus avanços em situações especificas neste domingo (30) em Budapeste, num encontro com pessoas de universidades e do universo cultural da Hungria na Faculdade de Informática e Ciências Biônicas da Universidade Católica Péter Pázmány. Neste último compromisso público no local o papa aconselhou sobre o uso da tecnologia.

Ele refletiu diante da vida humana em relação aos avanços no uso de tecnologia complementando com as consequências que isto pode gerar, usando a crise na natureza como exemplo, “A vida pode permanecer viva? É uma questão que, especialmente neste lugar, onde há o aprofundamento na informática e nas ciências biônicas, é boa de ser feita. De fato, o que Romano Guardini vislumbrou, parece evidente nos nossos dias: pensemos na crise ecológica, com a natureza que está simplesmente reagindo ao uso que fizemos dela”, refletiu.

O Papa também falou sobre como as pessoas estão utilizando até o limite do meio tecnológico e disse que é necessário pensar na falta de limites que está junto com a lógica do “podemos fazer desde que seja lícito”, “Pensemos também na vontade de colocar no centro de tudo não a pessoa e suas relações, mas o indivíduo centrado em suas próprias necessidades, ávido para ganhar e voraz em lidar com a realidade. E pensemos na consequência: a erosão dos laços comunitários, para a qual a solidão e o medo, as condições existenciais, parecem transmutar-se em condições sociais“, afirmou.


O uso da tecnologia avançada está cada vez mais frequente entre as pessoas (Reprodução/Freepik)


Ele complementa explicando que as pessoas independentemente de suas situações de adaptação social, acham refúgio na tecnologia pensando que isto irá melhorar as coisas, “Quantos indivíduos isolados, muito sociais ou pouco sociais, recorrem, como em um círculo vicioso, aos consolos da técnica para preencher o vazio que sentem, correndo de maneira ainda mais frequente, enquanto sucumbem a um capitalismo selvagem, sentindo como mais dolorosas as próprias fraquezas em uma sociedade onde a velocidade exterior está ao lado da fragilidade interior“, pontuou.

Para o Papa Francisco é necessário analisar os aspectos sociais acima, pois “um certo uso dos algoritmos pode representar um novo risco de desestabilização do humano“, se referindo aos modos de consumo das pessoas ao fazer o uso.

Após a reflexão do líder religioso podemos concluir que o comportamento humano é o que vai definir os resultados das coisas tanto artificiais, quanto naturais no mundo.

Foto destaque: Papa Francisco reflete e aconselha em encontro público. Reprodução/Alessandro Di Meo/Getty Images.

GPT – 4 processa até 25 mil palavras permitindo conversas mais extensas dos usuários

O GPT – 4 lançado pela OpenAI em março deste ano conhecido por ser a última versão mais atualizada do Chat GPT, possui a possibilidade dos seus usuários terem conversas mais longas do que as versões anteriores permitiam. De acordo com a própria empresa criadora, o sistema atualizado mostra melhoras quando comparado com o seu antecessor.

Durante esta semana a mais nova atualização ficou disponível para uma quantidade maior de usuários do que estava antes, pois o Bing anunciou que o sistema de buscas foi preenchido com uma versão “personalizada para pesquisa” do GPT – 4. Inicialmente o produto havia sido disponibilizado só para quem paga pelo serviço de assinatura, ChatGPT Plus.

O GPT – 4 consegue processar até 25 mil palavras enquanto o anterior processava apenas até 3 mil palavras, o que ajudará a alongar as conversas de seus usuários. Esta nova versão consegue gerar e receber em média oito vezes mais textos do que o seu antecessor ChatGPT, significando que ele consegue seguir as conversas mais difíceis e possui “memória” mais potente para guardar informações.


As conversas poderão ser mais longas por conta do recurso avançado do sistema (Reprodução/Freepik)


Além de permitir que os usuários tenham conversas maiores, este novo sistema também tem outras vantagens com seus recursos avançados, como possuir camadas adicionais de segurança e ser mais conciso em respostas dadas aos usuários, este último de acordo com a OpenAI.

A empresa explicou em seu blog que este novo sistema possui “40% mais chances de conceder respostas corretas do que o GPT-3.5“. Também segundo a companhia, o GPT – 4 tem mais “capacidades de raciocínio avançado” do que o antecessor.

Processar e compreender imagens também é mais um dos novos recursos do sistema atualizado, os usuários podem solicitar para o chatbot do GPT – 4 a descrição de imagens e contextualização delas para melhor compreensão. Eles podem também escrever pedidos num papel e mandar a foto para obter retorno sobre as ordens.

Foto destaque: O ChatGPT 4 possui o chatbot mais atualizado. Reprodução/Atlas Midia.

Certificação global chega à lavoura brasileira para medir pegada de carbono

A inteligência artificial chegou ao campo. A Embrapa, juntamente com a Agrorobótica, desenvolveu uma tecnologia que mede a pegada de carbono enquanto avalia a qualidade do solo e da plantação.

A novidade será apresentada na Agrishow, que acontece em Ribeirão Preto, na primeira semana de maio. A Plataforma de Inteligência Artificial AGLIBS será lançada durante a comemoração dos 50 anos da Embrapa.

O projeto foi testado no oeste da Bahia, e a principal intenção é a comercialização de créditos de carbono no mercado internacional. A tecnologia é baseada no projeto da NASA, chamada LIBS (Laser Induced Breakdown Spectroscopy).


Plantação de milho (Foto: Reprodução/Pixabay)


Débora Milori, pesquisadora da Embrapa explica: “Ela usa pulsos laser de alta energia para criar um microplasma na superfície da amostra, e assim, determinar a sua composição química”. A cientista também disse que a tecnologia simplifica a análise da composição química do solo.

O CEO da Agrorobótica, Fábio Angelis detalha outros aspectos da tecnologia desenvolvida com a Embrapa: “É diferente dos métodos de análise de solos convencionais que utilizam vários reagentes químicos para extrair esses nutrientes do solo e usam mais de dez métodos de medidas diferentes para obter a mesma informação que o LIBS mensura com um único tiro laser”.

Fábio Angelis também explica como a tecnologia será oferecida no mercado: “A coleta de solo é georreferenciada e cada amostra de solo é identificada com QRcode único. As informações do campo são enviadas para a nuvem e acessadas antecipadamente pela equipe da Agrorobótica. Em seguida essas amostras são transportadas para o Centro Fotônico da Agrorobótica onde cada amostra é rastreada e identificada”.

Segundo a diretora de pesquisa e operações da Agrorobótica, Ainda Bebeachibuli explica que esses dados vão para uma nuvem. Após isso, a plataforma contabiliza as pegadas de carbono dentro de cada fazenda.

 

Foto Destaque: AGLIBS. Reprodução/ Divulgação Embrapa

No retorno de “Black Mirror”, conheça algumas previsões polêmicas da série

Na última quarta-feira (26), a Netflix anunciou a sexta temporada de Black Mirror. Sem um dia exato para o lançamento, a informação é que os episódios chegam em junho.

O teaser divulgado revela a participação de Salma Hayek, Aaron Paul e Michael Cera nesta temporada. O número de episódios não foi divulgado também.

A série teve uma pausa de quatro anos, mais retorna com o criador. Charlie Brooker continua como roteirista e produtor-executivo de Black Mirror.

A revista Forbes elegeu algumas das tecnologias mais polêmicas da ficção científica da Netflix que alerta contra os perigos possíveis da tecnologia. A primeira delas é o chip de visão do episódio 1×03. O equipamento registra tudo que é visto, feito e falado e permite que o protagonista descubra a traição de sua namorada.

Já no episódio 2×01, a protagonista é uma viúva que perde o marido em um acidente contrata uma inteligência artificial para substituí-lo. Assim Martha continua se comunicando com o amado, que até aparece em versão humana usando carne sintética.


Robô (Foto: Reprodução/ Pixabay)


No episódio 3×03, o protagonista é chantageado por um hacker que invade seu computador através de um vírus. O chantagista exige que o jovem obedeça suas ordens, senão vai expor seus segredos para a família dele.

Em “Black Museum“, uma turista encontra um museu em meio a uma estrada deserta. O lugar que expõe objetos raros para a história criminal é destaque no episódio 4×06.

Dois amigos de faculdade se reencontram graças a um jogo de videogame no episódio 5×01. Mas a versão em realidade virtual faz com que eles tenham revelações surpreendentes.

As duas primeiras tecnologias já são quase uma realidade. Algumas inteligências artificiais já simularam a personalidade de pessoas mortas e, o Google vem desenvolvendo lentes especiais que possuem câmeras.

 

Foto Destaque: Black Mirror. Reprodução/Divulgação/Netflix