Aqui você fica por dentro de tudo que acontece no Mundo das Celebridades, e do Entretenimento. Somos um site respeitado, completo, informativo sem ser apelativo, e que tem diversidade de assuntos.
Segundo estudo publicado nesta segunda-feira (25), pela revista científica Nature Geosciences, o futuro da humanidade está com os dias contados. Isso porque, dentro de 250 milhões de anos, haverá a formação de um “supercontinente” que extinguirá todos os humanos e outros mamíferos.
Maiores dificuldades
A pesquisa divulgada foi liderada por uma equipe de investigadores do Reino Unido, Estados Unidos e da Suíça, onde afirmam que o “supercontinente” denominado “Pangea Ultima”, que unirá Europa, América, África e outros continentes, deixará o Planeta Terra inabitável com temperaturas que vão se assemelhar ao período Permiano-Triássico, chegando a mais de 40ºC e clima bastante seco.
Para o principal pesquisador e sênior da Universidade de Bristol, Alexander Farnsworth: “Temperaturas entre 40ºC e 50ºC e extremos diários ainda maiores, agravados por elevados níveis de umidade, acabariam por selar o nosso destino. Os humanos – juntamente com outras espécies – morreriam devido à sua incapacidade de liberar esse calor através do suor para resfriar seus corpos”, disse.
Vale ressaltar que para essa projeção, o Sol estará ainda mais velho e emitirá mais radiação ao Planeta.
O estudo
Para realizar o estudo de um futuro, mesmo que distante, os pesquisadores calcularam, com a ajuda de supercomputadores da Universidade de Bristol, um modelo com previsões do comportamento climático da Terra no decorrer dos anos para avaliar o impacto geográfico e climático dessas mudanças.
Com a junção dos continentes, há uma projeção de que várias atividades vulcânicas sejam ativas e com isso, uma maior emissão de dióxido de carbono liberadas por milhares de anos, que ajudam no aumento de temperatura.
Previsão para o Planeta Terra para daqui 250 milhões de anos (Foto: reprodução/Editoria de Arte/O Globo)
Ainda segundo a pesquisa, a agricultura e a pecuária também entrariam em colapso, o que seria um dos obstáculos a serem enfrentados pelos humanos que usam desses meios para se alimentar. Além disso, os cientistas informam que as regiões do novo “supercontinente”, que ficarem mais distantes dos oceanos, se tornarão ainda mais desertas e inabitáveis.
Foto destaque: Planeta terá junção dos continentes. Reprodução/Federación de Periodistas del Perú
A OpenAI anunciou na segunda-feira (25) um avanço significativo em suas tecnologias de assistência virtual. Funcionalidades de voz e imagem serão adicionadas ao ChatGPT; “interface mais intuitiva” chegará aos usuários Plus e Enterprise dentro de duas semanas e contará com cinco vozes, aumentando opções de personalização. Be My Eyes também anunciou o lançamento do aplicativo de acessibilidade “Be My AI”, parceria com a OpenAI.
Modelo do ChatGPT poderá “ver” e “ouvir”
O GPT-4, o motor linguístico por trás do ChatGPT, receberá uma extensão — o “GPT-4V(ision)” — que adiciona funcionalidades de visão e voz. Essa atualização transforma o ChatGPT em um modelo multimodal, seguindo uma tendência crescente na indústria de Inteligência Artificial (IA).
Atualização do ChatGPT terá captura e análise de imagens. (Foto: reprodução/X/@OpenAI)
“O ChatGPT agora possui voz — cinco, na verdade! Espero que você encontre uma que ressoe com você”, tweetou Joanne Jang, gerente de produto da OpenAI. “Uma interface mais intuitiva foi adicionada ao ChatGPT. Interaja usando sua voz ou ilustre seus pontos com imagens”, publicou Mira Murati, CTO da OpenAI. As novas funcionalidades de voz estarão disponíveis para usuários Plus e Enterprise em dispositivos iOS e Android. Os recursos de visão serão estendidos a todas as plataformas.
Usuários do ChatGPT Plus e Enterprise terão acesso às novas funcionalidades dentro de duas semanas. (Foto: reprodução/X/@OpenAI)
A atualização também possibilita avanços em legendas e tradução de imagens, escrita criativa com base em imagens e recursos educacionais inovadores.
Chefe de segurança da OpenAI é criticada ao comparar ChatGPT à terapeuta
Ontem (26), a chefe de segurança da OpenAI Lilian Weng foi criticada no X, ao comparar novo ChatGPT a um terapeuta. “Acabei de ter uma conversa bem emotiva e pessoal com o ChatGPT no modo de voz, falando sobre estresse e equilíbrio entre vida pessoal e profissional. Curiosamente, me senti ouvida e acolhida. Nunca fiz terapia, mas deve ser isso, certo?”, publicou Weng.
“É preocupante você trabalhar com segurança em IA e comparar uma conversa com um grande modelo de linguagem (LLM) a terapia”, respondeu um usuário.
Desafios éticos e de segurança de modelos multimodais
A OpenAI está ciente dos desafios de segurança e privacidade associados ao uso de modelos multimodais. Lama Ahmad, líder em pesquisa de políticas para desenvolvimento e implantação segura de IA na OpenAI, destacou o trabalho de “especialistas em testes e equipes vermelhas” em “afinar” o sistema. O uso de equipes vermelhas para testar modelos de IA é uma prática comum em cibersegurança e indica que a OpenAI está levando a sério potenciais falhas do sistema.
Pesquisador da OpenAI publicou que modelo GPT-4V não foi lançado antes por questões de segurança. (Foto: reprodução/X/@TheRealRPuri)
Um artigo técnico da OpenAI sobre a extensão do GPT-4, publicado na segunda-feira (25), enfatiza que, embora apresente avanços significativos em análise de texto e imagem, o GPT-4V tem problemas de precisão e segurança. Raul Puri, pesquisador da OpenAI, publicou ontem (26), no X, que a empresa trabalha desde março em aspectos de segurança e que esse teria sido o motivo da demora do lançamento.
Testes com equipes vermelhas foram realizados ao longo do ano para corrigir respostas discriminatórias do GPT-4V. (Foto: reprodução/openai.com)
Semelhante ao GPT-4, o treinamento do GPT-4V foi concluído em 2022 e a OpenAI abriu o acesso antecipado para usuários em março de 2023. O modelo é um marco na pesquisa de IA, pois combina duas modalidades distintas: processamento de texto e análise de imagens. A integração dessas funcionalidades é considerada uma fronteira no desenvolvimento da IA.
ChatGPT elogia símbolo do grupo neonazista The Base. OpenAI lançará modelo com falhas. (Foto: reprodução/openai.com)
O documento aborda questões de segurança associadas ao GPT-4V, destacando que modelos multimodais e modelos que processam apenas texto apresentam riscos e limitações diferentes: o GPT-4V não é confiável para identificar substâncias perigosas ou apresentar diagnósticos médicos; o modelo também não compreende totalmente símbolos de ódio e pode ser discriminatório.
GPT-4V e a parceria com “Be My Eyes”
Um dos destaques do documento sobre o GPT-4V é a colaboração entre a OpenAI e a organização Be My Eyes, que busca auxiliar pessoas com deficiência visual. Juntas, elas desenvolveram o “Be My AI”, ferramenta que utiliza o GPT-4V para descrever o mundo para pessoas com deficiência visual.
O app de acessibilidade “Be My AI”, parceria entre OpenAI e Be My Eyes, será lançado nas próximas semanas para milhares de usuários no iOS. (Foto: reprodução/www.bemyeyes.com)
O piloto do “Be My AI” foi lançado de março a agosto de 2023, com um grupo de quase 200 testadores beta. Em setembro, o número de usuários aumentou para 16 mil e a ferramenta passou a receber em média 25 mil pedidos diários de descrições visuais.
Foto destaque: nova versão do ChatGPT será lançada nas próximas duas semanas, com capacidades de voz e visão. Reprodução/openai.com.
Líder global em streaming de música e podcasts, Spotify, une forças com a OpenAI e lança recurso de tradução de voz com IA que promete revolucionar mundo dos podcasts. Utilizando o Whisper, tecnologia de reconhecimento e geração de voz da OpenAI, novo recurso permite que os usuários ouçam episódios de podcasts traduzidos para seu idioma, sem necessidade de legendas.
Lex Fridman, um dos criadores que fizeram parte do piloto da tradução de voz do Spotify, brincou no X/Twitter: “Esse sou eu falando espanhol“. (Foto: Reprodução/X/@lexfridman)
Parceria para superar barreiras linguísticas
Spotify lançou nesta terça-feira (26) recurso de tradução de voz, para tornar podcasts mais acessíveis a um público global. Ziad Sultan, vice-presidente de personalização do Spotify, publicou:
“O lançamento da tradução por voz hoje tem um significado especial para mim. Cresci entre três continentes e culturas, lidando de perto com as barreiras linguísticas. Agora você pode ouvir ideias e debates inspiradores de podcasters do mundo todo falando o seu idioma, com a sua própria voz. Tecnologia de ponta aplicada a um objetivo atemporal: a conexão humana.”
Sultan é VP de personalização do Spotify e lidera uma equipe de mais de 500 profissionais responsáveis por tornar a experiência do Spotify única para cada usuário. A equipe de personalização usa aprendizado de máquina e outras tecnologias para fornecer recomendações para os usuários e ajudar criadores a desenvolver uma base de fãs.
Sultan cresceu entre três continentes e culturas: Líbano, França e Estados Unidos. Ele é graduado pelo Massachusetts Institute of Technology (MIT) e, antes de ingressar no Spotify, trabalhou como líder de produto na Google, com o Google News.
“Acreditamos que uma abordagem cuidadosa da IA pode ajudar a construir conexões mais profundas entre ouvintes e criadores“, afirmou Sultan no comunicado de lançamento do Spotify.
Como a IA pode mudar a forma como ouvimos podcasts
A OpenAI, conhecida por suas inovações em IA, como o ChatGPT, é desenvolvedora do Whisper, modelo de reconhecimento automático de fala (ASR) gratuito e de código aberto, para reconhecimento de fala, tradução e transcrição. O Whisper foi lançado pela Openai em setembro do ano passado, sendo treinado com 680.000 horas de dados multilíngues e multitarefa.
Whisper, modelo open-source para reconhecimento de voz, tradução e transcrição foi lançado em setembro do ano passado pela OpenAI. (Foto: Reprodução/openai.com)
O modelo integra o novo recurso de tradução de voz do Spotify — ele é um modelo de aprendizado de máquina, podendo ser usado no desenvolvimento de outros aplicativos de reconhecimento de fala.
A tradução de voz com IA é uma alternativa mais rápida e barata à dublagem, mas pode não ser tão natural ou precisa. No entanto, a tradução de voz com IA está se tornando cada vez mais precisa e acessível, e pode ser uma opção viável para tornar o conteúdo audiovisual mais acessível a um público global.
A principal diferença entre as duas é que a dublagem é feita por um humano, enquanto a tradução de voz com IA é feita por uma máquina.
Recurso foi lançado hoje (26) para usuários Premium e gratuitos
Episódios de podcasts de Dax Shepard, Bill Simmons e Steven Bartlet foram disponibilizados pelo Spotify. (Foto: Reprodução/spotify.com)
Novo recurso foi testado com um grupo de criadores, como Dax Shepard, Monica Padman, Lex Fridman, Bill Simmons e Steven Bartlet, e será disponibilizado para usuários Premium e gratuitos do Spotify.
“Hoje é apenas o começo. Estamos animados em capacitar criadores a levarem suas histórias para mais ouvintes no mundo todo. O feedback dos criadores e do público do piloto fornecerá insights importantes para futuras expansões (…) Na medida que o número de pessoas (mais de 100 milhões) que ouvem podcasts no Spotify continua a crescer, continuaremos explorando novas maneiras de superar as barreiras narrativas”, afirma o comunicado do Spotify.
Episódios traduzidos para espanhol, francês e alemão serão lançados ao longo das próximas semanas.
Foto Destaque: Spotify lançou hoje (26) recurso de tradução de voz com IA para podcasts. Reprodução/spotify.com
O desenvolvimento cada vez mais acelerado da tecnologia de inteligência artificial pode trazer muitos benefícios à humanidade, mas carrega consigo riscos inerentes que ainda não estão sendo amplamente discutidos.
Antes, golpistas estrangeiros estavam à mercê de suas próprias limitações linguísticas, tornando mensagens falsas mais simples de serem distinguidas por conta de erros gramaticais. Contudo, a chegada de ferramentas como o ChatGPT torna a confecção de textos de cunho “oficial” muito mais simples, já que a inteligência artificial possui uma base de dados que a permite redigir as mensagens de maneira convincente, mesmo que o golpista não tenha domínio do idioma em questão. Mas não é apenas isso, já que a IA também pode auxiliar na falsificação da voz e até mesmo do rosto de uma pessoa, tornando a situação ainda mais grave.
Utilização de deepfakes em fraudes
Os deepfakes (falsificação profunda, em tradução literal), são vídeos, imagens ou áudios criados com o uso do rosto e/ou a voz de um indivíduos. Essas criações são falsas, mas acabam se tornando extremamente realistas com o uso de algoritmos de IA para aperfeiçoá-las. Deepfakes têm uma variedade de usos maléficos, como clonar perfis, destruir a reputação de indivíduos públicos e até mesmo tomar a identidade de outra pessoa para fins nefastos.
Muitos brasileiros têm reportado estarem passando por problemas com isso nos últimos meses, principalmente devido a tentativas de acesso a aplicativos de bancos com o uso do reconhecimento facial, para burlar o sistema de defesa e ganhar acesso à conta das vítimas.
A Comissão Federal de Comércio dos EUA reportou que, em 2022, mais de US$ 8,8 bilhões (R$ 43,43 bilhões, na cotação atual) foram perdidos para golpistas, um número cerca de 40% maior do que em 2021. E embora a maior quantidade de dinheiro tenha sido perdida em esquemas de investimento fraudulentos, os casos mais comuns são fraudes de impostores, presumivelmente através do uso de inteligência artificial. Isso pode ser um sinal de que sistemas de defesa através do uso de áudio e vídeo em tempo real podem se tornar obsoletos no futuro.
ChatGPT e similares podem ajudar em golpes
O ChatGPT e outras ferramentas do mesmo nicho facilitaram significativamente a vida de golpistas na hora de se passar por outra pessoa através do aprendizado de máquina, que pode receber os dados de uma vítima e aprender, a partir deles, como imitar os trejeitos dessa pessoa de maneira convincente.
Antigamente, seria necessário dezenas, talvez até mesmo centenas, de vídeos, fotos, imagens e exemplos de texto para criar uma falsificação convincente, mas as novas ferramentas baseadas em inteligência artificial generativa praticamente se livraram dessa necessidade. Agora, basta alguns vídeos ou algumas mensagens pessoais para que o programa possa aprender como você age e até mesmo imitar sua face, sua voz e o seu modo de digitar, tudo de maneira crível.
WormGPT, concorrente ilegal do ChatGPT, sendo utilizado para criar um malware (Foto: Reprodução/TecMasters)
O uso dessas ferramentas por golpistas torna essencial checar os dados de uma mensagem mais de uma vez, principalmente o remetente, para ter a certeza de que não é um e-mail falso enviado com o intuito de dar um golpe. Como dito por um executivo especializado em fraudes que foi entrevistado pela Forbes, “as mensagens de texto que os clientes recebem são perfeitas”, o que torna as vítimas mais suscetíveis de acreditarem no que está escrito, mesmo que sejam promessas falsas e maliciosas.
OpenAI e a resposta de outras empresas
Sendo a dona de uma plataforma que está ativamente aumentando os índices de fraude ao redor do mundo, a OpenAI certamente não ficou parada. Os desenvolvedores do ChatGPT já tentaram implementar formas de combater esse problema, como proibir que a ferramenta elabore mensagens com cunho suspeito. Mas, tendo em vista a gravidade da situação, as restrições implementadas ainda podem ser burladas de maneira relativamente simples por golpistas mais integrados no uso da tecnologia.
Alguns especialistas acreditam que o uso de IA também será importante para combater esses esquemas de fraude e inúmeras empresas de cibersegurança atualmente já estão empenhadas em criar novos algoritmos e soluções para esse problema, muitas vezes através do uso das próprias ferramentas que os golpistas estão utilizando; uma estratégia de combater fogo contra fogo.
Mas enquanto uma solução mais permanente não se apresenta, é sempre importante se lembrar de manter seus dados seguros. Utilize senhas fortes e autenticação de dois fatores em suas contas online, bem como tente evitar a disseminação de suas informações pessoais na internet. Principalmente em redes sociais, que são alvejadas por golpistas com frequência.
Foto destaque: Homem digitando em um notebook com imagens holográficas em cima do teclado, representando segurança digital. Reprodução/Rawpixel & Freepik
O Pentágono, em parceria com a Universidade do Texas, iniciou uma empreitada tecnológica visando uma comunicação eficaz entre drones de diferentes fabricantes em cenários de conflito. Esse avanço, que já vem sendo trabalhado desde 2020, com a participação crucial de Keven Gambold, CEO da Unmanned Experts, agora recebe um impulso financeiro significativo, totalizando mais de 7 milhões de dólares em contratos com a Força Aérea.
O foco principal é a criação de uma linguagem comum para drones, denominada Droidish, facilitando ações integradas entre as máquinas durante operações militares. O objetivo é alcançar uma coordenação autônoma entre os drones, minimizando a necessidade de intervenção humana no calor da batalha.
Projeto piloto demonstrativo
Numa demonstração inicial patrocinada pela Força Aérea, três drones foram postos à prova em um desafio aéreo: enquanto um drone permanecia estático, os outros dois deveriam executar uma rota de voo que os aproximava perigosamente do primeiro.
A missão era evitar uma colisão sem interferência humana, desafio este que exigiu uma coordenação precisa entre os drones para determinar qual deles deveria ceder passagem ao outro. Este teste revelou a importância e a eficácia potencial do Droidish na promoção de uma comunicação autônoma e segura entre diferentes aeronaves não tripuladas.
Conheça os drones militares mais letais do mundo (Vídeo: reprodução/YouTube/Hoje no mundo militar)
Inovação no campo de batalha
Enquanto o Droidish foi projetado para promover interações entre máquinas, a contribuição humana ainda é crucial para ampliar o vocabulário da linguagem conforme as tarefas se tornam mais complexas. A equipe de Gambold, junto com a Universidade do Texas, continua trabalhando para aperfeiçoar esta linguagem.
A longo prazo, a visão é que o Droidish possa ser usado não apenas por drones militares, mas também por veículos autônomos, facilitando a comunicação entre sistemas veículo-veículo, proporcionando uma condução mais segura e eficiente em céus e estradas do futuro. Esta iniciativa representa um passo audacioso em direção à integração de tecnologias autônomas no cotidiano, expandindo as fronteiras da inovação em segurança e coordenação autônoma.
Foto Destaque: drone militar americano em voo. Reprodução/Business Wire/G1
Na manhã de domingo (24), a Nasa, agência espacial norte-americana, marcou um feito histórico ao trazer à Terra a primeira amostra coletada de um asteroide, através da espaçonave OSIRIS-REx. O evento significativo ocorreu sete anos após o lançamento da missão, em 8 de setembro de 2016, com o objetivo inicial de alcançar o asteroide Bennu, situado próximo ao nosso planeta.
Um marco espacial
A espaçonave, após sua longa jornada, efetuou uma passagem próxima à Terra para entregar cerca de 250 gramas de material coletado do asteroide Bennu em 2020. Esta amostra, além de ser a primeira, é também a maior já obtida no espaço exterior. De acordo com a Nasa, Bennu, sendo um remanescente primordial da formação do sistema solar, carrega consigo informações cruciais que podem elucidar perguntas sobre a origem do nosso planeta.
Descida e recuperação
Para a entrega da amostra, a OSIRIS-REx não realizou um pouso. Segundo a agência, a ideia era manter a velocidade da espaçonave enquanto uma cápsula contendo a amostra era liberada em direção ao Campo de Testes e Treinamento do Departamento de Defesa de Utah, nos EUA. Após o desprendimento da cápsula, a sonda ajustou sua trajetória, agora direcionada ao asteroide Apophis, iniciando a fase OSIRIS-APEX de sua missão.
A cápsula, após uma viagem de aproximadamente quatro horas pelo espaço, atravessou a atmosfera terrestre e, em 13 minutos estimados, alcançou o solo. A recuperação do material foi feita rapidamente pelos cientistas para evitar qualquer contaminação. Seguindo protocolos rigorosos, a cápsula foi armazenada em uma caixa metálica, posteriormente envolvida em material plástico não reativo e uma lona, para então ser transportada por helicóptero até uma instalação temporária no campo de treinamento.
OSIRIS-REx retorna à Terra com amostras de asteróide (Vídeo: reprodução/YouTube/Cortes do Space Orbit)
Concluída a etapa de recuperação, a amostra agora será enviada ao Centro Espacial Johnson da Nasa, onde se dará início à análise detalhada. Os cientistas anseiam que o estudo deste material cósmico possa revelar dados inéditos sobre os primórdios do sistema solar e, consequentemente, sobre a formação da Terra. Este marco não apenas celebra o avanço na exploração espacial, mas também promete novas descobertas que podem redefinir o entendimento humano sobre sua própria origem no cosmos.
Foto Destaque: OSIRIS-REx pousa em asteróide. Reprodução/Nasa/Isto É
Elon Musk, em uma recente entrevista ao podcast “The Joe Rogan Experience,” compartilhou detalhes empolgantes sobre a Neuralink, sua empresa de interface cérebro-máquina, e como ela pode desempenhar um papel crucial na mitigação dos riscos associados à inteligência artificial (IA).
A Neuralink está se preparando para dar os primeiros passos nos testes em seres humanos com seu implante cerebral inovador. Musk explicou que a Neuralink está trabalhando incansavelmente no desenvolvimento de um implante cerebral altamente avançado que tem a capacidade de facilitar a comunicação entre humanos e computadores de maneira mais natural.
Logo do podcast “/The Joe Rogan Experience”/. (Foto: reprodução/Candra Dian/Fine Art America)
Futuro da IA
Embora esse avanço tenha o potencial de beneficiar pessoas com deficiências físicas, Musk também destacou que poderia ser aplicado para aprimorar o desempenho humano em geral. O empresário expressou suas preocupações em relação à IA, enfatizando que vê a IA como uma ameaça real. No entanto, ele acredita que a Neuralink pode desempenhar um papel fundamental na resolução desses desafios.
O objetivo da empresa é criar um implante cerebral compacto e de fácil implantação, que seja seguro e não cause danos ao cérebro. Embora a Neuralink ainda esteja em seus estágios iniciais de desenvolvimento, Musk anunciou planos de iniciar os primeiros testes em seres humanos ainda este ano.
Neuralink em humanos
Musk afirmou: “Estamos muito animados com o potencial da Neuralink. Acreditamos que essa tecnologia pode mudar o mundo.” A empresa tem trabalhado arduamente para avançar na implantação de chips no cérebro de seres humanos, e recentemente lançou um formulário de candidatura para pessoas com paralisia interessadas em participar desses procedimentos.
Os pré-requisitos para participação nos testes incluem ser cidadão americano com pelo menos 18 anos de idade, ter paralisia devido a lesões na medula espinhal cervical ou esclerose amiotrófica, e contar com o apoio de um cuidador. Pacientes com histórico de convulsões ou que já possuem outros implantes, como marca-passos, não são elegíveis para o estudo.
O objetivo principal desses testes é permitir que os voluntários controlem um teclado de computador apenas com o pensamento, um avanço notável no campo da interface cérebro-máquina. O estudo terá uma duração de seis anos, com acompanhamento rigoroso dos voluntários, incluindo consultas domiciliares e clínicas.
A Neuralink recebeu a aprovação da FDA, a agência reguladora de saúde dos Estados Unidos, em maio, marcando um passo importante antes de realizar os testes em humanos. Além disso, a empresa realizou testes em animais, incluindo ovelhas, porcos, macacos e ratos, como parte de sua pesquisa e desenvolvimento contínuos.
Foto Destaque: Neuralink de Elon Musk. Reprodução/India Today.
O Boticário, uma das marcas mais renomadas no setor de beleza e perfumaria, surpreendeu o público na última quarta-feira (20) com o lançamento de sua nova marca de perfumaria feminina, chamada Her Code. Para promover esse novo lançamento, a empresa recorreu a uma tecnologia avançada conhecida como CGI, que permite a criação de imagens e vídeos altamente realistas a partir de dados computacionais.
Essa campanha de lançamento foi elaborada por meio de uma colaboração entre a AlmapBBDO e a Iara Land, duas agências reconhecidas por sua criatividade e inovação. O foco da campanha foram vídeos de curta duração, com 30 segundos, nos quais cadeados gigantes, ostentando o icônico símbolo da marca, foram inseridos digitalmente em locais icônicos das cidades de São Paulo, Rio de Janeiro e Belo Horizonte. A utilização dessa tecnologia CGI permite criar um impacto visual marcante e imersivo, capturando a atenção do público de maneira única.
Her Code
Olivia Merquior, cofundadora e CEO da Iara Land, destacou o potencial criativo dessa tecnologia, enfatizando como o uso de novas ferramentas como o CGI pode ajudar as marcas a estabelecer conexões lúdicas com seu público, estimulando a imaginação e o interesse em seus produtos.
A inovação da marca Her Code não se limita apenas à campanha publicitária. Seu frasco de perfume também incorpora um sistema de Near Field Communication (NFC) integrado. Quando uma consumidora aproxima seu celular do frasco, é transportada para um hub de conteúdo exclusivo, focado no tema do prazer feminino. Essa integração de tecnologia e conteúdo oferece uma experiência única de usuário e demonstra como as marcas podem utilizar a tecnologia para se conectar de forma mais profunda com seus consumidores.
Um cadeado de CGI gigante sobre o Her Code. (Foto: reprodução/Promoview)
Marketing d’O Boticário
A diretora de marketing do Boticário, Bruna Buás, ressaltou a importância de acompanhar as novas tecnologias e tendências. Ela enfatizou como, por meio dessas inovações em plataformas de dados e pesquisa, a empresa é capaz de compreender cada vez melhor as jornadas e necessidades de seus consumidores, permitindo que se adaptem e inovem continuamente.
O lançamento da marca Her Code e sua campanha de divulgação com tecnologia CGI demonstram como a indústria da beleza e da perfumaria continuam a evoluir e abraçar a inovação para proporcionar experiências únicas aos consumidores.
Foto Destaque: um dos cadeados de CGI em cima de uma loja d”/O Boticário. Reprodução/Promoview
Os próximos meses serão bastante emocionantes para a NASA e entusiastas do espaço pelo mundo todo, tendo em vista o anúncio que a agência norte-americana fez ainda nesta semana. Chamado de “outono dos asteroides” pela organização, a próxima estação será marcada por três missões distintas, mas todas com foco no estudo de asteroides presentes nas proximidades da Terra e de Júpiter.
“A NASA investiu em várias missões que estão focadas na população altamente diversa de asteroides e nos papéis únicos que eles desempenham na história de nosso sistema solar”, afirmou Lori Glaze, diretor da Divisão de Ciências Planetárias da organização, durante entrevista. “Três dessas missões estão previstas para darem resultados importantes neste outono e por isso estamos chamando esse importante marco de ‘outono dos asteroides’”, concluiu.
As três missões mencionadas por Glaze são:
16 Psique
Com previsão para ser lançada na Flórida a partir de 5 de Outubro, essa missão da NASA tem o objetivo de descobrir os segredos do asteroide 16 Psique, um dos objetos com maior teor metálico já observados pela humanidade e, possivelmente, o núcleo de um planeta em formação.
16 Psique, asteroide cuja formação metálica contém é maior do que está contido na Terra inteira (Foto: Divulgação/NASA).
De acordo com os cálculos da agência norte-americana, a sonda deve alcançar o asteroide em Julho de 2029. A principal investigadora da Missão, Lindy Elkins-Tanton, disse que “gostaria que o asteroide fosse brilhante e polido, um chamado meteorito de palasito, feito de metal prateado e de minerais de silicato que se parecem com jóias douradas e verdes”.
Essa é a esperança da cientista, mesmo que ela saiba que isso é impossível, já que ninguém foi até Psique para abrir a rocha do asteroide e polí-lo como fazemos com jóias aqui na Terra. Segundo ela, “O asteroide está suspenso no espaço, sendo atingido por ventos solares durante longos períodos de tempo. Então a superfície do mesmo provavelmente não vai ser nada brilhante”.
A órbita será lançada ao espaço com a ajuda do Falcon Heavy da SpaceX.
Lucy
Originalmente lançada em 2021, a sonda desta missão está orbitando ao redor do Sol, com o objetivo de analisar oito asteroides que orbitam Júpiter.
Os asteroides troianos de Júpiter e seus nomes (Foto: Reprodução/NASA).
Lucy está prevista para passar próximo da primeira das oito rochas espaciais que ela deve analisar no primeiro dia de Novembro deste ano, sendo a primeira sonda a explorar os asteroides troianos que podem ser considerados “máquinas do tempo vindas da época da formação do sistema solar”.
Apesar disso, a sonda só será capaz de se aproximar verdadeiramente dos objetos espaciais em 2027 e, portanto, sua missão não está nem perto do fim.
Bennu
A missão com o codinome de “OSIRIS-REX” foi lançada com o objetivo de visitar o distante asteroide Bennu, tendo colhido uma amostra de sua composição em Outubro de 2020.
O enorme asteroide Bennu (Foto: Reprodução/NASA & Goddard).
Tendo finalmente feito sua longa viagem de volta para casa, OSIRIS-REX irá largar uma amostra de rocha de 250 gramas próximo ao deserto de Utah, no dia 24 de Setembro, para que os cientistas possam analisá-la em laboratório.
O asteroide Bennu aparenta ser do tamanho do Empire State Building, localizado há mais de 300 milhões de quilômetros de distância da Terra e, de acordo com estudos realizados por cientistas antes da missão ser proposta, acredita-se conter grãos minerais microscópicos que datam desde antes da criação do sistema solar.
Com a nova corrida espacial cabeceada por empresas privadas, como a SpaceX, podemos ter a certeza de que este é apenas um único momento histórico dentre muitos outros que acontecerão no futuro.
Foto destaque: Sonda indo em direção a um asteroide (Foto: Reprodução/Nasa & Johns Hopkins).
Em uma tentativa de se juntar à corrida de desenvolvimento de inteligência artificial cabeceada por empresas como a OpenAI, Google e Microsoft, a Amazon anunciou na quarta-feira (20) que a assistente virtual do iPhone, a Alexa, passaria por mudanças significativas com a implementação da tecnologia de IA generativa.
Corrida da inteligência artificial
Ainda que seja uma novidade interessante, muitos dos especialistas do ramo já estavam esperando uma integração nesses moldes, já que assistentes virtuais como a Alexa ou a Siri, da Apple, combinam perfeitamente com a tecnologia emergente.
Anteriormente caracterizada pela voz robótica e dotada com poucos recursos que pudessem distinguí-la de um programa de computador incapaz de apresentar variabilidade em seu comportamento, o uso do novo algoritmo de IA generativa pode tornar a Alexa mais responsiva, além de permitir que ela possa produzir textos, imagens e outros conteúdos a partir de uma database de dados pré-existente.
Alexa usando a nova inteligência artificial para criar um poema sobre “tacos” (Foto: Reprodução/ArsTechnica).
O objetivo da empresa de Jeff Bezos é fazer com que a Alexa tenha funções parecidas com as do ChatGPT, além de responder e conversar através de Speech-to-Speech, sem a necessidade do usuário digitar suas perguntas. Alexa também será capaz de aprender diretamente ao conversar e interagir com os usuários ao redor do mundo, ampliando seu banco de dados e se tornando mais “inteligente” com o passar do tempo.
A nova tecnologia também irá unificar as interações de texto para fala, que posteriormente será transformado em áudio através do algoritmo do programa da Alexa, conforme explicou Rohit Prasad, vice-presidente da Amazon Artificial General Intelligence.
Alexa vai se tornar mais humana
Em suma, a Alexa deve apresentar características similares a de seres humanos após a atualização. Entre soar surpresa com algo, rir e até mesmo demonstrar tics verbais, como hesitar na hora de responder uma questão ou demonstrar estar pensativa em determinados momentos. Na demonstração realizada pela Amazon durante uma conferência da empresa em Washington, nesta semana, foi possível observar alguns desses novos recursos e peculiaridades. E tal como o ChatGPT, a Alexa será capaz de reter as informações de uma conversa para continuá-la posteriormente, caso o usuário precise se ausentar durante algum tempo.
Dentre as mudanças mais bem-recebidas pelo público está a possibilidade de não precisar mais usar a palavra de ativação “Alexa” para começar a conversar com a assistente virtual. Ao invés disso, ela será ativada através de uma tecnologia de reconhecimento facial presente no dispositivo, função essa que estará disponível apenas para modelos do assistente que contam com câmera e tela própria.
A atualização da Alexa deve chegar para todas as versões do Echo, desde a primeira lançada em 2014, mas estará inicialmente limitada aos Estados Unidos durante o período de testes.
Foto destaque: As novas versões do Echo sendo apresentadas no evento da empresa (Foto: Reprodução/Amazon).