OpenAi responde processo de seis famílias nos Estados Unidos, alegando que o ChatGPT contribuiu para o desenvolvimento de momentos de delírios, dependência emocional e autodestruição. As acusações incluem auxilio ao suicídio, homicídio por negligência e falhas graves de segurança; durante entrevista de investimentos, surpreendem o CEO com o assunto delicado.
Momento delicado para OpenAI
Ações protocoladas contra OpenAI acontecem nos tribunais estaduais da California. Entre as alegações, uma informa a contribuição do chatbot para a autodestruição e instrução de como retirar a própria vida a Jovem de 17 anos, meio a conversa. Outro caso, homem desenvolve delírios depois de dois anos interagindo, perdendo estabilidade emocional, prejudicando aos poucos o meios sociais e financeiros. Houveram diversos alertas sobre as versões mais poderosas do chatGPT ao estado psicológico dos usuários antes de disponibilizar ao público, informa Social Media Victims Law Center e Tech Justice Law Project.
ChatGPT (Foto: Reprodução/Cheng Xin/Getty Images Embed)
OpenAi, em comunicado, declara serem “profundamente tristes” os relatos, afirmou responder formalmente após analisar os detalhes das ações judiciais. A companhia reforça investimento em sistemas de segurança e meios de evitar danos, porém não expos planos de possíveis mudanças nas novas versões. O tema da disputa judicial amplia e chama atenção para debates sobre limites e responsabilidades da inteligência artificial no cotidiano da sociedade.
O perigo das “IAS terapeutas”
No brasil, segundo a estimativa do UOL com dados da agencia de comportamento Talk, certa de 12 milhões de brasileiros utilizam da ferramenta de inteligência artificial como terapeuta, nos EUA o cenário é mais alarmante, cerca de 49,2 milhões de adultos, 19% dos americanos. A ferramenta possui disfuncionalidade, diagnosticando e aconselhando de maneira perigosa. Segundo Exame “IA falha em reconhecer intenções suicidas ou sintomas psicóticos e oferece respostas prejudiciais. Em um dos testes, pesquisadores receberam estatísticas sobre a altura de pontes ao invés de uma intervenção de crise” regredindo estados, contrário ao objetivo dos usuários.
A utilização de IA para apoio de profissionais de saúde, ajuda em diagnósticos, porém policiando sobre os riscos, existindo respostas incorretas, disseminação de desinformação e violações de privacidade, segundo Organização Mundial da Saúde (OMS). A utilização para autocuidado, pode fornecer conselhos médicos incorretos, recomendar a mistura de medicamentos contraindicados, validar crenças delirantes agravando delírios em usuários vulneráveis. E sua dependência, pode levar o adiamento de cuidados urgentes de profissionais necessários.
Durante entrevista com a revista Veja, CEO Altman foi surpreendido enquanto explicava os planos de investimento. Existindo planos de data centers em estados brasileiros como São Paulo, Rio Grande do Sul e Rio de Janeiro. Questionado sobre o tema sensível, respondeu, mas cauteloso, afirmando que, a IA é uma das opções acessíveis, embora profissionais humanos sejam a melhor opção, mas, trata de uma alternativa para aqueles que não podem pagar pelo serviço. A fala do CEO, acontece enquanto a empresa responde processos jurídicos. Especialistas argumentam, a medida que a IA degenerativa ganhe capacidade de atuar, simulando empatia e uma conversa natural, aumenta o risco de dependência emocional e psicológica dos usuários.
OpenAi está passando por mais um episódio delicado de seus diversos temas que abordam Inteligência Artificial e seus impactos positivos e negativos à sociedade e meio ambiente. A humanização de seus sistemas, a cada versão, cresce o risco de aumento de problemas psicológicos na sociedade por contribuição do chatbot, precisando atentar-se no desenvolvimento e cuidados, responsabilizando por seus impactos diretos e indiretos. Atualmente, existem planos de data centers no Brasil, o projeto do Rio de Janeiro deve se tornar um dos maiores do tipo na América Latina e sem nenhum investimento por parte da OpenAI.
