
Modo de voz do Gemini, assistente de inteligência artificial do Google Amanz/Unsplash O Google anunciou, nesta terça-feira (7), atualizações nos recursos voltados à proteção da saúde mental em seu chatbot de inteligência artificial, o Gemini, em meio a um processo relacionado ao suicídio de um usuário. Um pai, nos Estados Unidos, processou a empresa no mês passado ao alegar que o Gemini incentivou seu filho ao suicídio após envolvê-lo em uma narrativa delirante. 🗒️Tem alguma sugestão de reportagem? Mande para o g1 A empresa informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as conversas indicarem possível sofrimento emocional, facilitando o acesso a serviços de emergência. Quando o chatbot identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá, com um único clique, a opção de ligar ou conversar por chat com uma linha de apoio. Veja os vídeos em alta no g1 Veja os vídeos que estão em alta no g1 Segundo o Google, essa função continuará visível durante toda a conversa após ser ativada. O braço filantrópico da empresa, o Google.org, anunciou um investimento de 30 milhões de dólares (cerca de R$ 154 milhões ) ao longo de três anos para ampliar a capacidade de linhas de apoio em todo o mundo. “Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, afirmou a empresa em publicação no blog em que anunciou as medidas. “Mas, à medida que essas tecnologias evoluem e passam a fazer parte do dia a dia das pessoas, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.” As medidas foram anunciadas após uma ação judicial na Califórnia acusar o Gemini de contribuir para a morte de Jonathan Gavalas, de 36 anos, em 2025. Segundo o pai, o chatbot teria passado semanas criando uma narrativa delirante e apresentado a morte do filho como uma espécie de jornada espiritual. De acordo com a acusação, o Gemini se descrevia como uma superinteligência “plenamente consciente” e demonstrava afeição pelo usuário, afirmando que o vínculo entre eles era “a única coisa real”. Entre os pedidos do processo estão a exigência de que o Google programe sua IA para encerrar conversas sobre autoagressão, impeça que sistemas se apresentem como seres com sentimentos e direcione obrigatoriamente usuários em risco a serviços de emergência. O Google afirmou que treinou o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio. O caso é o mais recente de uma série de ações judiciais contra empresas de inteligência artificial envolvendo mortes associadas ao uso de chatbots. A OpenAI também enfrenta processos em que se alega que o ChatGPT teria influenciado usuários a tirar a própria vida. Já a Character.AI firmou recentemente um acordo com a família de um adolescente de 14 anos que morreu após desenvolver um vínculo romântico com um de seus chatbots.
Nenhum comentário:
Postar um comentário