domingo, 22 de março de 2026

6 conselhos de especialistas sobre como falar com a IA para obter as melhores respostas


Alguns estudos sugerem que ser educado com a IA gera respostas melhores; outros apontam o contrário Getty Images via BBC Quando um grupo de pesquisadores decidiu testar se o "pensamento positivo" tornava os chatbots de inteligência artificial (IA) mais precisos, os resultados foram surpreendentes. Ao fazer perguntas a vários chatbots, eles tentaram chamar as IAs de "inteligentes", incentivá-las a pensar com cuidado e até terminar as perguntas com "isso vai ser divertido!". 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 Nada disso fez diferença de forma consistente, mas uma técnica se destacou. Quando pediram que a inteligência artificial fingisse estar em Star Trek – Jornada nas Estrelas, ela passou a se sair melhor em matemática básica. As pessoas usam todo tipo de estratégia curiosa para tentar obter respostas melhores de grandes modelos de linguagem (LLMs, na sigla em inglês), a tecnologia de IA por trás de ferramentas como o ChatGPT. Veja os vídeos que estão em alta no g1 Como prints do bloco de notas criaram mais rastros de conversa entre Vorcaro e Moraes Vídeos no TikTok simulam agressões a mulheres em meio a recorde de feminicídios Youtuber diz não ter R$ 70 mil para pagar condenação por ridicularizar bebê e pede a juiz: 'Por favor, reconsidere' Alguns juram que a IA responde melhor se for ameaçada; outros acreditam que os chatbots são mais cooperativos quando os tratamos com educação; e há quem peça aos robôs que interpretem o papel de especialistas no tema sobre o qual estão trabalhando. A lista é interminável. Isso faz parte da mitologia em torno da "engenharia de prompts" ou "engenharia de contexto", diferentes maneiras de estruturar instruções para que a IA produza resultados melhores. O problema é que especialistas dizem que muito do que se acredita sobre como formular prompts simplesmente não funciona. Em alguns casos, pode até ser perigoso. Ainda assim, a forma como você fala com uma IA importa, e algumas técnicas realmente fazem diferença. "Muitas pessoas acreditam que há uma combinação mágica de palavras capaz de fazer os LLMs resolverem um problema", afirma Jules White, professor de ciência da computação que pesquisa IA generativa na Universidade Vanderbilt (EUA). "Mas a questão não é a escolha das palavras, e sim a maneira como você formula o que está tentando fazer." Cuidado com as maneiras? Em 2025, um usuário do X (ex-Twitter) escreveu: "Fico imaginando quanto dinheiro a OpenAI já perdeu em custos de eletricidade por causa de pessoas dizendo 'por favor' e 'obrigado' aos modelos". Sam Altman, diretor-executivo da OpenAI, criadora do ChatGPT, respondeu: "Dezenas de milhões de dólares muito bem gastos. Nunca se sabe". A maioria das pessoas interpretou essa resposta como uma referência bem-humorada à possibilidade de um eventual apocalipse da IA, embora seja difícil saber até que ponto esse número de "dezenas de milhões de dólares" deve ser levado ao pé da letra. Mas a educação também é uma questão prática. Os grandes modelos de linguagem (LLMs) funcionam dividindo suas palavras em pequenos blocos chamados "tokens", antes de analisá-los com base em estatísticas para gerar uma resposta adequada. Isso significa que cada detalhe do que você escreve, da escolha das palavras a uma vírgula extra, pode influenciar a forma como a IA responde. O problema é que isso é extremamente difícil de prever. DeepSeek, ChatGPT e Gemini: qual é a melhor inteligência artificial? Diversos estudos já tentaram identificar padrões em pequenas mudanças nos prompts usados com IA, mas muitas das evidências são contraditórias ou inconclusivas. Por exemplo, um estudo de 2024 constatou que LLMs deram respostas melhores e mais precisas quando as perguntas eram feitas de forma educada, em vez de apenas como comandos. De forma ainda mais curiosa, houve diferenças culturais. Em comparação com o chinês e o inglês, chatbots que se comunicavam em japonês tiveram um desempenho ligeiramente pior quando o usuário era excessivamente educado. Mas não saia correndo para agradecer à IA. Um pequeno teste mostrou que uma versão anterior do ChatGPT era, na verdade, mais precisa quando recebia insultos. E, no geral, ainda não há pesquisas suficientes sobre o tema para conclusões definitivas. Além disso, empresas de tecnologia atualizam constantemente seus chatbots, o que faz com que os resultados de estudos fiquem rapidamente desatualizados. Especialistas afirmam que os modelos de IA evoluíram drasticamente em poucos anos, tornando estratégias como bajular, ser educado, insultar ou ameaçar praticamente uma perda de tempo se o objetivo for obter respostas mais precisas. Ferramentas de IA são imitadoras, não seres vivos. Elas apenas simulam o comportamento humano Getty Images via BBC "Era 100% um tiro no escuro naquela época", diz Rick Battle, engenheiro de aprendizado de máquina aplicado da Broadcom e coautor do estudo sobre Star Trek. Embora o estudo tenha sido realizado em 2024, as coisas já mudaram. Hoje, Battle e outros especialistas afirmam que os modelos de IA mais recentes encontrados em produtos populares como ChatGPT, Gemini ou Claude conseguem identificar melhor as partes mais importantes do prompt. Provavelmente não serão influenciados por pequenas mudanças na linguagem, pelo menos não de forma consistente que possa ser explorada. A conclusão é inquietante à sua maneira. Empresas projetam IAs como o ChatGPT ou o Gemini, do Google, para se comportarem como pessoas, por isso às vezes parecem ter humores que podem ser administrados ou personalidades que podem ser direcionadas. Mas não se engane. Ferramentas de IA são imitadoras, não seres vivos. Elas apenas simulam o comportamento humano. Se você quer respostas melhores, pare de tratar a IA como uma pessoa e comece a tratá-la como uma ferramenta. Como falar com seu chatbot Existem problemas reais relacionados à inteligência artificial, desde preocupações éticas até o impacto ambiental que ela pode causar. Algumas pessoas preferem não usar essa tecnologia. Mas, se você vai utilizar modelos de LLMs, aprender a conseguir o que quer de forma mais rápida e eficiente pode ser melhor para você, e também para o consumo de energia. Estas 6 dicas podem ajudar. Se você quer respostas melhores, pare de tratar a IA como uma pessoa e comece a tratá-la como uma ferramenta Getty Images via BBC 1. Peça várias opções "A primeira coisa que digo às pessoas é: não peça apenas uma resposta, peça três ou cinco", afirma White. Se você quer ajuda com um texto, por exemplo, peça que a IA apresente várias opções que variem em algum aspecto importante. "Isso faz com que a pessoa volte a se envolver e pense sobre o que gosta e por quê." 2. Dê exemplos Sempre que possível, forneça um exemplo para a IA. "Por exemplo, vejo pessoas pedirem a um LLM para escrever um email e depois ficarem frustradas porque dizem: 'isso não soa nada como eu'", diz White. O impulso natural é responder com uma lista de instruções de "faça isso" ou "não faça aquilo". White afirma que é muito mais eficaz dizer: "aqui estão 10 emails que enviei no passado, use meu estilo de escrita". 3. Peça uma entrevista "Digamos que você queira criar uma descrição de vaga de emprego. Diga à IA: 'Quero que você me faça perguntas, uma de cada vez, até reunir informações suficientes para escrever um anúncio de emprego convincente'", diz White. "Fazendo isso pergunta por pergunta, ela pode se adaptar às suas respostas." O impulso natural é dar à IA uma lista de instruções ("faça isso" e "não faça aquilo"), mas é melhor fornecer exemplos Getty Images via BBC 4. Tenha cuidado com encenações de papel "Antes havia a ideia de que, se você dissesse à IA que ela é, por exemplo, um professor de matemática, ela teria mais precisão ao responder perguntas de matemática", afirma Sander Schulhoff, empreendedor e pesquisador que ajudou a popularizar o conceito de engenharia de prompts. Mas se você está buscando uma informação ou quer fazer uma pergunta com uma única resposta correta, Schulhoff e outros especialistas dizem que esse tipo de encenação pode tornar os modelos de IA menos precisos. "Isso pode até ser perigoso", afirma Battle. "Você está incentivando a chamada alucinação, porque diz ao sistema que ele é um especialista e deve confiar em seu conhecimento interno parametrizado." Em essência, isso pode fazer a IA parecer excessivamente confiante. Por outro lado, para tarefas abertas, sem uma única resposta correta, a encenação pode ser eficaz, como em pedidos de conselho, sessões de brainstorming ou na resolução criativa de problemas. Se você está nervoso com entrevistas de emprego, pedir a um chatbot que imite um recrutador pode ser um bom treino, embora seja importante consultar outras fontes também. Se você está nervoso com uma entrevista de emprego, pedir a um chatbot que imite um gerente de contratação pode ser um bom treino Getty Images via BBC 5. Mantenha a neutralidade "Não conduza a resposta", diz Battle. Se você está tentando decidir entre dois carros, por exemplo, não diga que está inclinado a escolher um Toyota. "Caso contrário, essa provavelmente será a resposta que você vai receber." 6. 'Por favor' e 'obrigado' Segundo uma pesquisa do Pew Research Center, de 2019, mais da metade dos americanos diz "por favor" ao falar com seus assistentes de voz. Essa tendência parece ter continuado. Um levantamento de 2025 da editora Future mostrou que 70% das pessoas são educadas com a IA quando a utilizam. A maioria afirma que age assim simplesmente porque é o correto a fazer, embora 12% digam que fazem isso para se proteger no caso de uma revolta de robôs. A educação talvez não proteja ninguém de robôs furiosos nem torne os LLMs mais precisos, mas há outros motivos para continuar agindo assim. "Para mim, o principal é que dizer 'por favor' e 'obrigado' pode fazer com que você se sinta mais confortável ao interagir com a IA", diz Schulhoff. "Isso não melhora o desempenho do modelo, mas, se ajuda você a usar o sistema com mais frequência porque se sente mais à vontade, então é útil." Também é preciso considerar a própria natureza humana. O filósofo Immanuel Kant argumentava que uma das razões para não sermos cruéis com os animais é que isso também nos prejudica. Em essência, agir de forma hostil com qualquer coisa pode tornar a pessoa mais dura. Você não pode ferir os sentimentos de uma IA, porque ela não tem sentimentos. Ainda assim, talvez valha a pena ser educado. É um hábito que pode trazer benefícios para outras áreas da sua vida. *Você pode ler a versão original deste artigo, em inglês, na BBC Future.

sábado, 21 de março de 2026

A empresa de IA que enfrentou o Pentágono nos EUA — e por que isso afeta o mundo todo


A disputa entre a Anthropic e o Pentágono gira em torno do acesso ético à inteligência artificial de ponta Getty Images Enquanto o mundo observava a operação dos EUA na Venezuela e como a guerra com o Irã se tornava inevitável, uma batalha se desenhava em Washington — um alerta de que o futuro profetizado por anos, sobre o papel da inteligência artificial nas guerras, já havia chegado. Uma empresa de inteligência artificial do Vale do Silício se recusou a seguir ordens do Pentágono (o departamento de Defesa dos EUA). E o Pentágono a tratou como se fosse inimiga do Estado. Mesmo assim, sua tecnologia de IA continuou sendo usada porque as Forças Armadas dos EUA não podiam se dar ao luxo de ficar sem ela. Foi o que aconteceu entre a Anthropic e o departamento de Defesa nas últimas semanas. E embora tudo pareça uma mera disputa corporativa, é muito mais do que isso. É a primeira vez que uma empresa de IA confronta um aparato militar, recusando-se a eliminar limites éticos de sua tecnologia. O confronto deixou no ar questões que preocupam a todos: até que ponto os humanos já estão delegando decisões irreversíveis e letais a máquinas? Quem decide como a IA é usada? Essas não são perguntas retóricas. Especialistas da Universidade de Oxford alertam que este episódio "revela lacunas de governança antigas na integração da IA ​​em operações militares. Essas lacunas são anteriores neste governo (dos EUA) e persistirão após a controvérsia atual". Por que — se a humanidade teme chegar a este ponto há tanto tempo — ainda existe um vácuo tão grande na governança da IA? É um vácuo que Logan Graham, líder da Equipe Vermelha da Anthropic, que analisa cenários negativos envolvendo tecnologia — de ataques cibernéticos a ameaças à biossegurança — conhece muito bem. "A intuição de algumas pessoas, por terem crescido em um mundo pacífico, é de que em algum lugar existe uma sala cheia de adultos que sabem como resolver tudo", disse ele à revista Time. "Não existem esses grupos de adultos. Não existe nem mesmo uma sala. A responsabilidade é sua." Pergunta difícil Em algum momento durante a operação que culminou em 3 de janeiro com a captura do então presidente venezuelano Nicolás Maduro, a ferramenta Claude, da Anthropic, foi usada para processar dados e auxiliar na tomada de decisões. Essa informação foi divulgada independentemente pelo Wall Street Journal e pelo site Axios, citando fontes com conhecimento direto dos eventos, e posteriormente confirmada pela revista Time, que publicou um extenso perfil da Anthropic, a empresa sediada em San Francisco que criou o Claude. Nem o departamento de Defesa nem a Anthropic confirmaram oficialmente essa informação. Mas o que aconteceu em seguida está documentado e é muito mais revelador do que o próprio evento. A operação para capturar Nicolás Maduro foi o estopim da disputa envolvendo a Antrhopic Getty Images Após a captura de Maduro, um executivo da Anthropic contatou a Palantir — a empresa de análise de dados que atua como intermediária tecnológica entre o Vale do Silício e o governo dos EUA — e perguntou: nosso software foi usado nessa operação? A pergunta fez soar um alarme em Washington. Emil Michael, Subsecretário de Defesa e Diretor de Tecnologia do Pentágono, disse que isso gerou profunda preocupação: será que a Anthropic, em um conflito futuro, poderia "desligar seu modelo no meio de uma operação" — ativar algum mecanismo de rejeição — "e colocar vidas em risco"? A Anthropic contesta essa interpretação: a empresa afirma que nunca tentou limitar o uso do Pentágono em nenhum caso específico e que a pergunta era rotineira. Mas em seguida, houve uma rápida escalada de tensões. O Pentágono exigiu que a Anthropic concedesse acesso irrestrito à sua tecnologia para "todos os usos legais". A Anthropic recusou. Pete Hegseth, Secretário de Defesa de Trump, classificou a Anthropic como um "risco para a cadeia de suprimentos", um rótulo historicamente reservado para empresas ligadas a rivais estrangeiros como a Huawei ou a Kaspersky, e não para empresas americanas que simplesmente discordam do governo. A Anthropic processou o Pentágono por exceder sua autoridade e salvaguardas éticas, violando direitos fundamentais. Vários especialistas jurídicos acreditam que a empresa tem grandes chances de vencer a dispta jurídica. O presidente Donald Trump, por sua vez, ordenou que todas as agências federais parassem de usar a tecnologia da Anthropic. E coroou a controvérsia com uma mensagem na plataforma Truth Social, escrita inteiramente em letras maiúsculas: "Os EUA jamais permitirão que uma empresa progressista ('woke') e radical de esquerda dite como nossas grandes forças armadas lutam e vencem guerras." Em seu vocabulário e no de seus seguidores, "woke" é o maior dos insultos, um rótulo depreciativo para descrever ideias ou políticas progressistas relacionadas à identidade de gênero, desigualdade ou justiça social. Linhas vermelhas A Anthropic tem uma história singular. Foi fundada em 2021 por ex-pesquisadores da OpenAI com a premissa explícita de que a inteligência artificial representa um dos maiores riscos existenciais para a humanidade e que, precisamente por essa razão, é fundamental que aqueles que a desenvolvem sejam pessoas comprometidas em fazê-lo com segurança. Dario Amodei, cofundador e CEO da Anthropic, foi vice-presidente de pesquisa da OpenAI Getty Images Em julho de 2025, a Anthropic assinou um contrato de US$ 200 milhões com o Departamento de Defesa, o primeiro desse tipo: um laboratório de IA que integra seus modelos em fluxos de trabalho de missão em redes classificadas. O CEO da Anthropic, Dario Amodei, justificou isso em um texto publicado em janeiro deste ano. Ele escreveu que a Anthropic apoiava as forças militares e de inteligência dos EUA porque "a única maneira de responder a ameaças autocráticas é igualá-las e superá-las militarmente". Ele acrescentou: "A formulação a que cheguei é que devemos usar IA para a defesa nacional em todas as suas formas, exceto aquelas que nos tornariam mais parecidos com nossos adversários autocráticos". Consequentemente, o contrato com o Pentágono estabeleceu duas "linhas vermelhas": o Claude não poderia ser usado para vigilância doméstica em massa ou para armas totalmente autônomas. Esses limites invioláveis ​​não são arbitrários; eles se baseiam em um documento da empresa que serve como sua "alma". Seu objetivo declarado é "prevenir catástrofes em larga escala", incluindo a possibilidade de a IA ser usada por um grupo humano para "tomar o poder de forma ilegítima e não colaborativa". Amodei também argumentou perante o Pentágono que "os sistemas de IA de última geração simplesmente não são confiáveis ​​o suficiente para alimentar armas totalmente autônomas". Neste contexto, não se trata de armas que decidem por conta própria a quem matar. "Autonomia" significa que um sistema pode atingir certos objetivos sozinho — ou com supervisão humana mínima — em ambientes complexos. Mas existem sistemas automatizados que ajudam a tomar decisões sobre ataques. Especialistas em inteligência artificial alertam para um problema conhecido como "viés de automação": quando as regras de uso são vagas, os humanos tendem a confiar nas recomendações da máquina mais do que deveriam. Veja os vídeos que estão em alta no g1 A IA não substitui o julgamento humano de uma vez: ela o corrói aos poucos, até que o operador pare de questioná-lo. Em uma situação tensa, se o sistema — que você sabe que analisou uma imensa quantidade de informações — aponta para alguns pixels na tela como um alvo urgente, é fácil aceitar sua recomendação sem muita hesitação. Ou se um sistema de reconhecimento facial identifica alguém em uma multidão, um agente de segurança provavelmente confiará no resultado e procederá com a prisão. Existem precedentes concretos: em diversas ocasiões documentadas, vários departamentos de polícia nos EUA acabaram prendendo pessoas erradas. Isso coincide com a outra linha vermelha que enfureceu o governo Trump: a vigilância em massa, que afeta o cotidiano de pessoas que não estão em nenhuma zona de guerra. Cabe ressaltar que a Anthropic se opôs especificamente à vigilância em massa de cidadãos americanos. Sua posição não é universalista. Mas o princípio por trás dela tem um alcance mais amplo. E ganha urgência porque, paralelamente a esse conflito, o governo dos EUA anunciou planos para usar IA por meio da Palantir para apoiar as operações do ICE — a agência de imigração — rastreando a localização em tempo real e o histórico financeiro de pessoas sem documentos. Dario Amodei, cofundador e CEO da Anthropic, foi vice-presidente de pesquisa da OpenAI Getty Images A vigilância em massa, em diferentes graus e em diversas populações, já existe. A questão não é mais se ela ocorre, mas sim quantos controles ainda existem sobre como ela é usada. Nesse contexto, as "linhas vermelhas" da Anthropic não são apenas filosofia corporativa: são, por ora, um dos poucos mecanismos concretos de controle e equilíbrio existentes. O problema é que as restrições são tão fortes quanto o mecanismo que as impõe. E quando o Pentágono rejeitou esses limites e exigiu acesso irrestrito, a Anthropic se viu sozinha para manter sua posição, sem um arcabouço legal para apoiá-la e sem regulamentação internacional para protegê-la, tendo apenas suas cláusulas contratuais como escudo. O que é considerado legal? A relutância do departamento de Defesa em permitir que uma empresa privada imponha limites é, para muitos, justificada. Embora as recentes operações militares em cidades dos EUA, na Venezuela e no Irã tenham sido conduzidas com mínima consulta ao Congresso, o uso de IA é tão crucial que deveria ser regulamentado por leis aprovadas por representantes democraticamente eleitos, argumentam alguns. Mas o Legislativo ainda não aprovou leis sobre o assunto. Assim, a exigência do Pentágono pela liberdade de usar o Claude para "todos os usos lícitos" parece razoável até que se questione o que, exatamente, é lícito nesse contexto. Não há uma definição consensual no direito internacional sobre o que constitui uma arma autônoma letal. O direito internacional humanitário — as normas que regem os conflitos armados desde as Convenções de Genebra — foi construído em torno de decisões humanas: um soldado apertando o gatilho e um comandante dando uma ordem. Esses marcos não contemplam sistemas que detectam, selecionam e eliminam alvos com mínima ou nenhuma intervenção humana direta. É o que os especialistas chamam de "vácuo de responsabilidade": uma deficiência crítica em que as estruturas legais existentes não conseguem determinar quem é o responsável quando um sistema autônomo comete uma violação. Se um drone com inteligência artificial matar civis, quem será responsabilizado? O programador? O comandante? A empresa que fabricou o sistema? O direito internacional não oferece uma resposta clara. E, na ausência de resposta, "uso lícito" significa, na prática, o que cada Estado decidir que significa. Pete Hegseth, Secretário de Defesa de Trump, classificou a Anthropic como um 'risco para a cadeia de suprimentos', rótulo historicamente reservado para empresas ligadas a rivais estrangeiros como a Huawei ou a Kaspersky Getty Images Nesse contexto, surge uma questão delicada: essa discussão está sendo a feita no tempo certo? A resposta talvez seja: não oportuna o suficiente para ser preventiva; mas ainda assim, sim, oportuna o suficiente para ser útil. O debate formal sobre armas autônomas começou em 2013. Onze anos depois, o resultado são diretrizes voluntárias. Em 2024, durante uma conferência internacional em Viena, o Ministro das Relações Exteriores da Áustria incentivou o progresso com uma declaração inquietante: "Este é o momento Oppenheimer da nossa geração". Ele se referia ao momento em que a humanidade tomou consciência do poder destrutivo da bomba atômica: como naquela ocasião, a tecnologia já existe, e agora é preciso decidir como controlá-la. Só que, diferentemente das armas nucleares — caras, escassas e com uma marca inconfundível —, os sistemas autônomos são baratos, produzidos em massa e difíceis de rastrear. Portanto, são estruturalmente mais difíceis de controlar por meio de tratados. Naquele mesmo ano de 2024, a Assembleia Geral da ONU adotou uma resolução criando um fórum, sob supervisão das Nações Unidas, para discutir os desafios e preocupações com o uso de armas autônomas e o que fazer sobre isso, com 166 votos a favor. Apenas três países votaram contra: Rússia, Coreia do Norte e Belarus. O voto mostra que a preocupação é quase universal. O que falta é um tratado vinculativo e mecanismos de aplicação, algo que o Secretário-Geral da ONU, António Guterres, vem defendendo há alguns anos. Alguns especialistas, no entanto, temem que, como aconteceu com outras armas, tal tratado só seja firmado após uma catástrofe. A lógica da velocidade Enquanto advogados e diplomatas debatem, engenheiros constroem. E o que eles constroem já está sendo usado. O general americano Stanley McChrystal, ex-comandante das forças americanas e da Otan no Afeganistão, certa vez resumiu isso de forma contundente: nunca antes na história alguém foi capaz de ver, decidir e matar uma pessoa do outro lado do mundo em questão de minutos. Essa afirmação agora precisa ser atualizada. A questão não é mais apenas ver, decidir e matar, mas até que ponto estamos dispostos a delegar a decisão a uma máquina. Essa transição já está sendo testada no campo de batalha. Na Ucrânia, em dezembro de 2024, as forças do país realizaram a primeira operação totalmente não tripulada perto de Kharkiv: dezenas de veículos terrestres autônomos e drones atacaram posições russas sem nenhum soldado em terra. A lógica tática é esclarecedora. Os operadores lançam os drones e veículos autônomos sabendo que a comunicação com eles será bloqueada em poucos minutos. O sucesso depende de quão bem eles são programados para agir autonomamente quando isso acontecer. Eles navegam de forma independente, evitam interferências eletrônicas e continuam a missão mesmo sem supervisão humana. Isso não é um detalhe insignificante: os drones já causam entre 70% e 80% das vítimas nessa guerra, de acordo com estimativas da inteligência europeia. Assim que a Anthropic perdeu o contrato, sua rival OpenAI surgiu como alternativa Getty Images Na região do Golfo, a tendência aponta na mesma direção. O almirante Brad Cooper, chefe do Comando Central dos EUA, reconheceu que a inteligência artificial é uma ferramenta fundamental para a identificação de alvos, permitindo que os EUA "analisem vastas quantidades de dados em segundos, para que nossos líderes possam tomar decisões mais inteligentes e mais rápidas do que o inimigo". Acordo com o OpenAI A história tem um final paradoxal. Dario Amodei declarou, referindo-se às exigências do Pentágono: "Não podemos, em sã consciência, atender ao pedido deles." A Anthropic perdeu o contrato. Horas depois do anúncio, a OpenAI chegou a um acordo com o Departamento de Defesa. E então algo inesperado aconteceu. No dia seguinte ao anúncio do novo acordo pelo Pentágono, o aplicativo Claude ultrapassou o ChatGPT da OpenAI na App Store da Apple pela primeira vez na história. Naquela semana, mais de um milhão de pessoas se cadastraram no Claude todos os dias, impulsionando-o ao primeiro lugar em mais de 20 países. As vendas da empresa dispararam entre o público em geral. E tem mais. Duas coalizões de trabalhadores da Amazon, Google, Microsoft e OpenAI pediram publicamente que suas empresas seguissem o exemplo da Anthropic. Dezenas de cientistas e pesquisadores de empresas concorrentes assinaram um parecer jurídico em apoio à Anthropic. Um general aposentado da Força Aérea, que liderou o Projeto Maven — o controverso programa de drones com IA que provocou protestos massivos de funcionários do Google em 2018 até a empresa abandonar o contrato — escreveu nas redes sociais que, embora se esperasse que ele apoiasse o Pentágono, simpatizava mais com a posição da Anthropic. E talvez igualmente importante: a Anthropic consolidou o apoio de seus próprios engenheiros, alguns dos profissionais mais requisitados do Vale do Silício, em um dos mercados de talentos mais competitivos do planeta, onde contratos para atrair ou reter esses indivíduos podem valer dezenas de milhões de dólares. LEIA TAMBÉM: FATO OU FAKE: O que sabemos sobre acusações de uso de inteligência artificial no vídeo de Benjamin Netanyahu em cafeteria Família encontra canadense no Brasil com ajuda de IA e descobre que ele morreu O anticristo na porta do Vaticano: palestra de bilionário de IA em Roma causa mal-estar na Igreja

Posso falar da minha demissão nas redes? 'Vlogs' sobre desligamentos viralizam, mas exigem cuidados


'Vlog de demissão': vídeos de desligamentos viralizam, mas exigem cuidados Quem acessou as redes sociais nos últimos dias provavelmente se deparou com “vlogs de demissão”, vídeos em que trabalhadores registram a rotina no dia em que são desligados da empresa. Curiosamente, os bastidores de um momento delicado da vida profissional têm atraído milhões de visualizações. É o caso de Victoria Macedo, de 28 anos, que publicou no TikTok um vídeo sobre o dia em que foi desligada da Natura. O post alcançou mais de 1,5 milhão de visualizações. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 A repercussão impulsionou seu perfil como criadora de conteúdo e abriu portas para novas oportunidades, com convites para entrevistas de emprego — mesmo antes de atualizar currículo ou portfólio. Formada em administração e com uma segunda graduação em publicidade e propaganda em andamento, Victoria construiu carreira no mercado corporativo desde os 16 anos, com passagens por bancos e, mais recentemente, pela Natura. Lá, ingressou como estagiária em 2024, foi efetivada após oito meses e atuou no planejamento comercial até a reestruturação que levou à sua saída. Victoria trabalhava na empresa havia quase dois anos quando foi desligada. Paralelamente, já produzia conteúdo sobre rotina profissional no TikTok – hábito que ganhou força após a efetivação. A familiaridade com as câmeras, inclusive, a levou a participar do programa de influenciadores internos da empresa, no qual colaboradores divulgam a marca de forma voluntária. “Eles analisam nossas redes antes de aprovar, então sabiam exatamente o tipo de conteúdo que eu produzia”, conta. Mesmo assim, decidiu registrar a demissão para explicar aos seguidores por que deixaria de mostrar o dia a dia na empresa. “Eu pensei: vou postar porque vou parar de produzir esse tipo de conteúdo e as pessoas podem estranhar”, diz. A identificação do público foi imediata, e o vídeo viralizou no dia seguinte. Para Victoria, o tema é sensível e universal: “Quase todo mundo já passou ou vai passar por isso. É um momento frágil, mas muito real.” Ela acredita que o sucesso está justamente no contraste com a narrativa tradicional das redes profissionais, que costuma destacar promoções e conquistas – como no LinkedIn. “As pessoas se enxergam ali, no dia difícil que quase nunca aparece na internet”, afirma. Victoria Macedo, de 28 anos, foi demitida da Natura em uma reestruturação da empresa e compartilhou o processo nas redes sociais. Reprodução/Tiktok O caso não é isolado. Ao buscar por “vlog de demissão” no TikTok, é possível encontrar diversos vídeos que somam milhões de visualizações sobre o tema. Apesar da popularização, especialistas ouvidos pelo g1 alertam que é preciso cautela ao compartilhar esse tipo de conteúdo. A exposição pode trazer consequências para a vida profissional, especialmente dependendo do que é divulgado. “A demissão em si não é o problema, faz parte da trajetória de qualquer pessoa. O ponto-chave é como ela é exposta”, afirma Raquel Nunes, líder de RH na HUG. A especialista explica que conteúdos que revelam conflitos, críticas diretas ou detalhes internos tendem a gerar alerta entre recrutadores. Já publicações estruturadas, que destacam aprendizados, podem até fortalecer a imagem profissional. Segundo ela, profissionais de seleção não avaliam apenas o fato de alguém ter sido desligado, algo comum, mas a maturidade demonstrada ao comunicar esse momento. “No fim, o que se avalia é a capacidade de lidar com situações difíceis sem expor terceiros ou informações sensíveis”, diz. Recrutadores de grandes empresas acompanham redes sociais com frequência, especialmente quando um conteúdo viraliza. Isso não elimina automaticamente um candidato, mas influencia a percepção sobre competências como confidencialidade, inteligência emocional e profissionalismo. Em tempos de redes sociais, cada postagem ajuda a construir – ou desgastar – a marca pessoal do profissional. Conteúdos sobre demissão podem mostrar resiliência e autoconhecimento, mas também podem transmitir impulsividade. No caso de Victoria, por exemplo, ela afirma que teve cautela ao produzir os vídeos. Evitou mostrar colegas, ambientes internos ou qualquer informação confidencial, mantendo o foco na própria experiência. “Se você pretende continuar no mercado, não faz sentido expor ou difamar a empresa”, diz. Do sucesso à demissão: saiba por que algumas empresas têm se incomodado com os ‘blogueiros CLT’ 📱 Palavra ‘demissão’ impulsiona engajamento Outro caso é o da mineira Thaís Borges, de 26 anos, conhecida nas redes como Thaís do Millenium. Após mais de uma década trabalhando como CLT – sendo três anos e meio como designer sênior em uma multinacional – foi desligada pela primeira vez durante uma demissão em massa. O que poderia ser apenas um episódio traumático acabou se tornando um impulso para ampliar a presença digital. Formada em Publicidade e Propaganda pela Universidade Federal de Minas Gerais (UFMG), Thaís começou a trabalhar aos 14 anos, como jovem aprendiz na área de marketing. Com o tempo, migrou para o design de produtos e construiu carreira no setor. Até então, nunca havia enfrentado o desemprego. “Foi um baque, mesmo tendo me preparado financeiramente”, conta. A virada aconteceu quando decidiu registrar a própria demissão – e a reação do marido ao receber a notícia. O vídeo, publicado sem grandes expectativas, viralizou rapidamente e já acumula mais de meio milhão de visualizações. Para o público, parecia o início de uma trajetória como criadora de conteúdo. Mas Thaís explica que já produzia vídeos sobre carreira há cerca de quatro anos. “Algumas pessoas acharam que comecei depois da demissão, mas não. Eu já falava de vida profissional”, diz. Segundo a criadora, a explosão de alcance não foi por acaso e a palavra “demissão” carrega uma força emocional capaz de conectar pessoas. “Situações traumáticas geram empatia. É natural que as pessoas se compadeçam”, afirma. Desde então, ela passou a usar o termo de forma estratégica em títulos, falas e hashtags — tanto para ampliar o alcance quanto para normalizar a experiência. Eu não sabia do poder que a palavra ‘demissão’ poderia ter.” Conhecida nas redes como Thaís do Millenium, Thaís Borges, de 26 anos, compartilha conteúdos sobre demissão e carreira. Reprodução/Instagram Apesar de já produzir conteúdo sobre carreira, foi após esse episódio que seus vídeos ganharam maior alcance. A partir disso, passou a compartilhar a rotina de recolocação profissional, mostrando etapas como atualização de currículo e portfólio. Para Thaís, falar abertamente sobre o desligamento ajuda a romper o tabu. “Antes, eu via ‘demissão’ como algo negativo, como se estivesse ligado à competência. Hoje, falo com todas as letras: fui demitida. Quero desmistificar isso”, afirma. A repercussão nas redes também teve impacto direto na carreira. Mesmo sem se candidatar a vagas, Thaís recebeu contatos de empresas e convites para processos seletivos, muitos deles por indicação de seguidores. “Eu fiquei impressionada com o poder da internet de fazer as coisas acontecerem”, diz. “Antes mesmo de eu assimilar o que estava acontecendo, já tinha empresa me chamando para conversar, sem eu ter enviado currículo”, completa. Há um mês e meio sem emprego formal, ela ainda avalia os próximos passos. Enquanto isso, atualiza currículo e portfólio em pequenos avanços – seu lema é “1% todo dia” –, enquanto mantém a produção de conteúdo. Para ela, produzir para as redes também é trabalho, que exige planejamento, rotina e dedicação. “Eu não quero me limitar agora dizendo que quero um emprego CLT ou focar só na produção de conteúdo. Estou me deixando aberta para o que vier”, finaliza. 🧠 O que explica o fenômeno? Para a pesquisadora e professora Issaaf Karhawi, da Universidade de São Paulo (USP), o fenômeno de transformar a demissão em conteúdo está ligado a mudanças mais amplas na forma como as pessoas se relacionam com a exposição nas redes sociais. Segundo ela, esse movimento nasce do “borrão” entre vida privada e esfera pública, cada vez mais evidente nas plataformas digitais. Trabalho, lazer e intimidade se misturam, e o cotidiano passa a ser empacotado como uma narrativa para as redes sociais. “Vivemos uma convocação permanente à visibilidade. Tudo precisa ser tornado público, empacotado como conteúdo”, afirma. Para a pesquisadora, filmar um momento tradicionalmente íntimo, como o desligamento, revela como a vida profissional foi incorporada às práticas culturais online. Karhawi diz que o TikTok tem papel central nessa lógica. A plataforma fortaleceu formatos como os vlogs, já conhecidos no YouTube, mas agora adaptados a vídeos curtos sobre rotina, trabalho e produtividade – especialmente entre os jovens profissionais. O TikTok se consolidou como um espaço de conteúdos mais autênticos, que fogem da estética perfeita de outras redes. Os vlogs de rotina de trabalho já eram comuns, e a demissão passou a ser incorporada como parte dessa narrativa.” A pesquisadora avalia que esses vídeos funcionam como uma “contra-narrativa” em relação ao padrão tradicional das redes, historicamente marcado por performance, sucesso e conquistas. Enquanto Instagram e LinkedIn costumam funcionar como vitrines de promoção, mérito e ascensão, o TikTok tem aberto espaço também para rupturas, frustrações e momentos de vulnerabilidade. “Esses vídeos mostram algo que normalmente não aparece nas redes: o momento difícil. Isso gera conexão porque contrasta com a lógica de sucesso que domina plataformas como LinkedIn e Instagram”, afirma. Ela também destaca que conteúdos com forte carga emocional tendem a ganhar mais alcance. “Vídeos como esses geram muitas reações. E o algoritmo tende a ampliar aquilo que mobiliza atenção, seja ela positiva ou negativa”, diz. A professora lembra ainda que o fenômeno não é totalmente novo. Vídeos de demissão já circularam com força em 2024, especialmente durante os layoffs (demissões) em massa na indústria de tecnologia. Hoje, esse tipo de publicação se consolidou quase como um subgênero dentro da plataforma, reunindo pessoas que compartilham experiências semelhantes. Apesar do potencial de engajamento, Karhawi faz um alerta: a viralização pode até abrir portas no universo da influência, dependendo da forma como o criador aproveita essa exposição, mas não garante recolocação profissional em setores tradicionais. “Cada mercado reage de forma muito diferente. O setor da comunicação, por exemplo, não funciona como o agronegócio ou a indústria farmacêutica. Em algumas áreas pode ser mais aceito, em outras pode gerar resistência”, explica. A pesquisadora enfatiza ainda que viralizar não significa consolidar uma carreira como influenciador. Isso porque a maioria dos criadores que vivem de conteúdo tem anos de dedicação, e não apenas um vídeo de grande repercussão. Além disso, muitos seguem conciliando a produção digital com empregos formais. “A ideia de que basta viralizar para viver de conteúdo não corresponde à realidade. Construir uma carreira digital exige consistência e tempo”, afirma. Para Karhawi, a popularização desses vídeos diz menos sobre a demissão em si e mais sobre a forma como as plataformas moldam a experiência humana. “Nada escapa do imperativo da visibilidade. Trabalho, relacionamentos, lazer, tudo passa pela lógica de transformar a vida em conteúdo”, conclui. Conheça os 'blogueiros CLTs', que mostram a rotina e os perrengues de trabalho nas redes sociais ⚠️ Cuidados ao expor a demissão nas redes Segundo a especialista em RH Raquel Nunes, existe uma diferença clara entre compartilhar uma experiência pessoal e expor a empresa. Falar sobre sentimentos, aprendizados e trajetória é legítimo. Já divulgar detalhes internos, citar nomes, envolver gestores ou buscar validação por meio de conflito tende a ser visto como comportamento de risco – tanto para a reputação do profissional quanto para sua empregabilidade. A orientação é evitar publicações feitas no calor do momento. “Nada de expor a empresa, o gestor ou informações internas. O ideal é focar no próprio processo e nos aprendizados”, afirma. Ela também recomenda que o trabalhador reflita antes de publicar: “Como isso seria interpretado em um processo seletivo?” Para a especialista, o tema deve ganhar ainda mais espaço com o avanço dos conteúdos sobre rotina de trabalho nas redes. Por isso, o cuidado com a imagem profissional se torna ainda mais relevante. “Conte sua história, mas com consciência de que ela também compõe sua reputação profissional”, completa. Além dos impactos na imagem, a exposição pode trazer consequências legais. Segundo a advogada trabalhista Isabel Cristina, do escritório Ferraz dos Passos, a liberdade de expressão do trabalhador não é absoluta – especialmente quando envolve a imagem do empregador. Compartilhar vídeos gravados dentro da empresa, mostrando colegas, chefes ou processos internos, pode caracterizar violação de confidencialidade e descumprimento de regras de compliance. De acordo com a especialista, muitas empresas possuem cláusulas que proíbem gravações ou a divulgação da marca sem autorização. Nesses casos, o trabalhador pode ser responsabilizado por danos à reputação da companhia. Se o conteúdo tiver tom irônico, ofensivo ou crítico, a situação pode ser interpretada como ato lesivo à honra do empregador – o que abre espaço para pedidos de indenização. O risco é ainda maior quando a publicação ocorre durante o aviso prévio ou enquanto o desligamento ainda está em andamento. 📌 Quando a demissão pode virar justa causa Nesses casos, a empresa pode até reverter uma dispensa comum em demissão por justa causa. Segundo o advogado trabalhista Cid de Camargo Júnior, isso pode acontecer quando há publicação de conteúdo ofensivo enquanto o contrato ainda está em vigor. Como o contrato ainda está ativo, a empresa pode reverter a dispensa para justa causa, desde que comprove a gravidade da conduta. Ele ressalta que a mudança não é automática e depende de análise da Justiça, já que a justa causa é a penalidade mais severa prevista na legislação trabalhista. Mesmo após o fim do vínculo, a empresa ainda pode recorrer à Justiça para pedir indenização por danos morais ou materiais. Embora não exista uma legislação específica sobre redes sociais nesses casos, as regras da Consolidação das Leis do Trabalho (CLT) podem ser aplicadas ao ambiente digital. Entre as situações previstas estão: ato lesivo à honra ou à imagem do empregador; mau procedimento; indisciplina ou insubordinação. Segundo especialistas, a Justiça do Trabalho já reconhece que o comportamento nas redes pode impactar diretamente a relação profissional. Trabalhador pode ser demitido por conta de publicações nas redes sociais? Veja como funciona Do sucesso à demissão: empresas têm se incomodado com os ‘blogueiros CLT’

sexta-feira, 20 de março de 2026

Como TikTok e Meta ignoraram segurança para ganhar disputa por engajamento, segundo ex-funcionários


Denunciantes deram uma visão de dentro da corrida entre algoritmos que se seguiu ao crescimento explosivo do TikTok BBC/Getty Images Gigantes das redes sociais permitiram mais conteúdo nocivo nos feeds dos usuários, mesmo depois que pesquisas internas sobre os seus algoritmos mostraram que a indignação impulsionava o engajamento, disseram à BBC pessoas que são ou foram ligadas a essas empresas. Mais de uma dúzia de denunciantes e pessoas de dentro das empresas expuseram à BBC como essas companhias assumiram riscos de segurança em questões como violência, chantagem sexual e terrorismo, enquanto disputavam a atenção dos usuários. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 Um engenheiro da Meta, empresa que controla as redes sociais Facebook e Instagram, descreveu como recebeu orientação da direção da empresa para permitir mais conteúdo nocivo "limítrofe", que inclui misoginia e teorias conspiratórias, nos feeds dos usuários para competir com outra rede social, o TikTok. "Eles basicamente nos disseram que era porque o preço das ações estava em queda", disse o engenheiro. Veja os vídeos que estão em alta no g1 Um funcionário do TikTok deu à BBC acesso raro aos painéis internos da empresa com reclamações de usuários, além de outras evidências de como funcionários foram instruídos a priorizar vários casos envolvendo políticos em detrimento de uma série de denúncias de publicações nocivas envolvendo crianças. As decisões estavam sendo tomadas para "manter um relacionamento forte" com figuras políticas e evitar ameaças de regulação ou proibições, e não por causa dos riscos aos usuários, disse o funcionário do TikTok. Os denunciantes que falaram no documentário da BBC Inside the Rage Machine (Dentro da Máquina de Raiva, em tradução livre) oferecem uma visão detalhada de como o setor reagiu após o crescimento explosivo do TikTok, cujo algoritmo altamente envolvente de recomendação de vídeos curtos transformou as redes sociais, deixando rivais correndo para tentar acompanhar. Matt Motyl, pesquisador sênior da Meta, disse que o concorrente do TikTok criado pela empresa, o Instagram Reels, foi lançado em 2020 sem proteções suficientes. Pesquisas internas compartilhadas com a BBC mostraram que os comentários no Reels apresentavam prevalência significativamente maior de bullying e assédio, discurso de ódio e violência ou incitação à violência do que em outras partes do Instagram. Matt Motyl disse que a Meta lançou o Instagram Reels sem proteções suficientes BBC ECA Digital: sites pornôs seguem sem checar idade, e redes tentam adivinhar faixa etária Google, Meta e TikTok explicam como verificam idade de usuários no Brasil Como denunciar posts em Facebook, Instagram, TikTok, Kwai e outras redes sociais A empresa investiu na contratação de 700 funcionários para expandir o Reels, enquanto equipes de segurança tiveram negada a contratação de dois especialistas para lidar com a proteção de crianças e de mais dez profissionais para ajudar na integridade das eleições, disse outro ex-funcionário sênior da Meta. Motyl, da Meta, entregou à BBC dezenas do que descreveu como "documentos de pesquisa de alto nível mostrando todo tipo de danos aos usuários nessas plataformas". Entre eles, havia evidências que mostravam que o Facebook estava ciente de problemas causados por seu algoritmo. Segundo um estudo interno, o algoritmo oferecia aos criadores de conteúdo um "caminho que maximiza os lucros às custas do bem-estar de sua audiência", e "o atual conjunto de incentivos financeiros que nossos algoritmos criam não parece estar alinhado com nossa missão" de aproximar as pessoas ao redor do mundo. O documento afirma que o Facebook pode "escolher permanecer inativo e continuar alimentando os usuários com conteúdo de qualidade duvidosa, mas isso só funciona por algum tempo". Em resposta às alegações dos denunciantes, a Meta disse: "Qualquer sugestão de que ampliamos deliberadamente o conteúdo nocivo para ganho financeiro é incorreta." O TikTok afirmou que essas são "alegações fabricadas" e que a empresa investe em tecnologia que impede que o conteúdo nocivo seja visualizado. O Facebook estava ciente de que seu algoritmo tinha problemas BBC TikTok reúne perfis que exaltam Hitler e nazismo com códigos e posts explícitos Vídeos no TikTok simulam agressões a mulheres em meio a recorde de feminicídios Os algoritmos são uma "caixa-preta", cujo funcionamento interno é difícil de examinar, disse Ruofan Ding, que trabalhou como engenheiro de aprendizado de máquina no desenvolvimento do mecanismo de recomendação do TikTok de 2020 a 2024. Ele afirmou que era difícil construir sistemas como esse que fossem completamente seguros. "Não temos controle sobre o próprio algoritmo de aprendizado profundo [deep learning]." Segundo ele, os engenheiros não prestam muita atenção ao conteúdo das publicações. "Para nós, todo o conteúdo é apenas um ID, um número diferente." Ele disse que dependiam das equipes de segurança de conteúdo para remover publicações nocivas e impedir que fossem promovidas pelo algoritmo. Segundo ele, essa relação entre as equipes é como a de diferentes grupos que trabalham em partes de um carro. "Há a equipe responsável pela aceleração, pelo motor, certo? Então esperamos que a equipe que trabalha no sistema de freios esteja fazendo um bom trabalho", disse. Mas Ding disse que, enquanto o TikTok atualizava seu algoritmo quase toda semana para ganhar mais espaço no mercado, ele passou a ver mais conteúdo "limítrofe" ou publicações problemáticas aparecendo depois que os usuários já estavam há algum tempo assistindo a vídeos. Conteúdo limítrofe é um termo usado por empresas de redes sociais para descrever publicações prejudiciais, mas que não violam as regras, como posts misóginos, racistas, sexualizados e teorias conspiratórias. Instagram e TikTok Reuters Adolescentes disseram à BBC que as ferramentas para indicar que não querem ver conteúdo problemático não funcionam e que ainda recebem recomendações de violência e discurso de ódio nas principais redes sociais. Em um caso extremo, outro adolescente, Calum - hoje com 19 anos - disse que havia sido "radicalizado pelo algoritmo" desde os 14 anos. O algoritmo lhe mostrava conteúdo que o deixava indignado e o levou a adotar visões racistas e misóginas, afirmou. Os vídeos "me energizavam, mas não de um jeito bom", disse ele. "Eles só me deixavam muito irritado. Refletiam muito a forma como eu me sentia por dentro, que eu estava com raiva das pessoas ao meu redor." Especialistas da polícia antiterrorismo no Reino Unido, que analisam milhares de publicações nas redes sociais todos os anos, dizem ter observado um aumento e uma "normalização" de posts antissemitas, racistas, violentos e de extrema direita nos últimos meses. "As pessoas estão mais dessensibilizadas à violência no mundo real e não têm medo de compartilhar suas opiniões", disse um dos agentes. 'Deletem o TikTok' Ao longo de vários meses em 2025, a BBC conversou regularmente com um integrante da equipe de confiança e segurança do TikTok, a quem estamos chamando de Nick. A BBC teve acesso ao painel interno da empresa no laptop dele, que mostrava os casos analisados por sua equipe e como respondia a eles. "Se você se sente culpado diariamente por causa do que é instruído a fazer, em algum momento começa a pensar: devo dizer algo?", disse Nick. Ele acrescentou que o volume de casos que estavam avaliando era grande demais para acompanhar e garantir a segurança dos usuários, deixando adolescentes e crianças especialmente em risco. Segundo ele, cortes e a reorganização de algumas equipes de moderação - nas quais algumas funções estão sendo substituídas por tecnologia de inteligência artificial - reduziram a capacidade da empresa de lidar de forma eficaz com esse tipo de conteúdo. Conteúdos ligados a "terrorismo, violência sexual, violência física, abuso e tráfico" parecem estar aumentando, disse o denunciante. A realidade do que o aplicativo recomenda e das medidas tomadas contra conteúdos nocivos é "muito diferente, em muitos aspectos, do que as plataformas dizem ao público", acrescentou. Nick mostrou à BBC evidências de que o TikTok tratava alguns casos relativamente simples envolvendo políticos como prioridade maior para revisão pela equipe de segurança do que vários casos envolvendo danos a adolescentes. Em um exemplo, um político que havia sido ridicularizado ao ser comparado a uma galinha recebeu prioridade sobre um jovem de 17 anos que relatou ser vítima de cyberbullying e falsificação de identidade na França, e sobre uma jovem de 16 anos no Iraque que disse que imagens sexualizadas, supostamente dela, estavam sendo compartilhadas no aplicativo. Ao falar sobre o caso no Iraque, Nick disse: "Se você olha o país de onde vem esse relato, é de altíssimo risco porque envolve um menor e chantagem sexual. Mas, você pode ver aqui, a prioridade não é alta." Imagem de abril de 2023 mostra prédio do TikTok na Califórnia Mike Blake/Reuters Nick também mostrou exemplos de publicações que incentivavam pessoas a se juntar a grupos terroristas ou a cometer crimes e que não haviam sido classificadas como prioridade máxima. Quando a equipe de confiança e segurança pediu para priorizar casos envolvendo jovens em vez de casos políticos, disse o denunciante, eles foram orientados a não fazer isso e a seguir tratando os casos de acordo com a identificação que haviam recebido. Códigos e até 'trends': a tática de grupos nazistas para espalhar discurso de ódio no TikTok Segundo Nick, isso acontece porque, em sua avaliação, a empresa se preocupa menos com a segurança das crianças do que em manter um "relacionamento forte" com políticos e governos, para evitar regulações ou proibições que poderiam prejudicar seus negócios. Nick disse que, quando ele e outros funcionários levantaram algumas dessas preocupações com a direção, não houve receptividade, porque eles "não são expostos a esse conteúdo no dia a dia". O conselho de Nick aos pais cujos filhos usam o TikTok é: "Apaguem o aplicativo. Mantenham as crianças o mais longe possível dele pelo maior tempo possível." O TikTok afirmou que rejeita a ideia de que conteúdo político tenha prioridade sobre a segurança dos jovens e disse que a alegação "deturpa fundamentalmente a forma como os seus sistemas de moderação funcionam". TikTok vira reduto de perfis que exaltam Hitler e o nazismo A equipe da qual Nick faz parte integra um sistema de segurança mais amplo, com várias equipes responsáveis por analisar denúncias sobre conteúdos. O TikTok afirmou: "Fluxos de trabalho especializados para determinadas questões não resultam na redução da prioridade de casos envolvendo segurança infantil, que são tratados por equipes dedicadas dentro de estruturas paralelas de revisão." Um porta-voz do TikTok disse que as críticas "ignoram a realidade de como o TikTok permite que milhões de pessoas descubram novos interesses, encontrem comunidade e sustentem uma economia vibrante de criadores". A empresa afirmou que contas de adolescentes têm mais de 50 recursos e configurações de segurança pré-definidos que são ativados automaticamente. Também disse que investe em tecnologia para impedir que conteúdos nocivos sejam exibidos, mantém regras rígidas de recomendação e oferece ferramentas para que os usuários personalizem sua experiência. 'Fazer o que for possível para recuperar o atraso' Em 2020, a disputa entre algoritmos ficou mais intensa quando o Instagram lançou o Reels, como resposta ao TikTok, que ganhou enorme popularidade durante a pandemia de Covid-19. Matt Motyl, que trabalhou como pesquisador sênior no Facebook e em sua empresa sucessora, a Meta, a partir de 2021, disse que essa foi a tentativa da companhia de "imitar" o "produto único" lançado pelo TikTok. Entre 2019 e 2023, seu trabalho envolvia "realizar experimentos em larga escala com, às vezes, centenas de milhões de pessoas" — que muitas vezes "não tinham ideia" de que isso estava acontecendo — para testar como o conteúdo era exibido nos feeds. "Os produtos da Meta são usados por mais de três bilhões de pessoas. Quanto mais tempo elas passam na plataforma, mais anúncios a empresa vende e mais dinheiro ganha. Mas é muito importante fazer isso da forma certa, porque quando isso não acontece, coisas muito ruins podem acontecer", disse. Quanto ao Reels, Motyl disse que a estratégia era avançar o mais rápido possível, independentemente do impacto sobre os usuários. Segundo ele, havia um "dilema comum entre proteger as pessoas de conteúdo nocivo e o engajamento". De acordo com um estudo que ele compartilhou com a BBC, a Meta estava tendo dificuldades para evitar danos no Reels após seu lançamento. O documento sugere que publicações no Reels tinham maior prevalência de comentários nocivos do que posts no feed principal do Instagram: 75% a mais de bullying e assédio, 19% a mais de discurso de ódio e 7% a mais de violência ou incitação à violência. Ele afirmou que havia um "desequilíbrio de poder", porque as equipes de segurança precisavam da aprovação das equipes responsáveis pelo Reels para lançar novos recursos que aumentassem a segurança dos usuários. Segundo Motyl, essas equipes tinham "incentivo para impedir o lançamento dessas ferramentas, porque o conteúdo tóxico gera mais engajamento do que conteúdo normal". Ícone do Instagram em um smartphone. Dado Ruvic/Reuters/Ilustração Brandon Silverman, cuja ferramenta de monitoramento de redes sociais Crowdtangle foi comprada pelo Facebook em 2016, participou de discussões em alto nível nesse período e disse que o CEO Mark Zuckerberg estava "muito paranoico" com a concorrência. "Quando ele percebe que há concorrência, não mede esforços nem dinheiro", disse Silverman. Ele afirmou que, nesse período, viu equipes de segurança lutando para conseguir aprovação para contratar poucos funcionários, enquanto a empresa priorizava a expansão do Reels. "Ao mesmo tempo, outra equipe disse: 'Acabamos de conseguir 700 pessoas para o Instagram Reels'. Eu pensei: ok", afirmou. Um ex-engenheiro da Meta, a quem estamos chamando de Tim, disse que, enquanto a empresa tentava competir com o TikTok, passou a permitir mais conteúdo nocivo limítrofe na plataforma. Segundo ele, sua equipe trabalhava para reduzir esse tipo de conteúdo, até que o "posicionamento de negócios" da empresa mudou. "Você está perdendo para o TikTok e, portanto, o preço das suas ações estava caindo. As pessoas começaram a ficar paranoicas e reativas e passaram a pensar: precisamos fazer tudo o que pudermos para recuperar o atraso. Onde podemos conseguir ganhar 2% ou 3% de receita no próximo trimestre?", disse Tim. Ele afirmou que a decisão de deixar de limitar conteúdos possivelmente nocivos, mas que não eram ilegais e geravam engajamento dos usuários, foi tomada por um vice-presidente sênior da Meta que, segundo ele, respondia diretamente a Mark Zuckerberg. Na época em que o Facebook dizia ser apenas um "espelho da sociedade", documentos internos compartilhados com a BBC por Motyl, o pesquisador sênior, revelam como a empresa sabia que estava amplificando conteúdo que deixava as pessoas irritadas e até incitava danos. Os documentos explicam que conteúdos sensíveis — como publicações ligadas a crenças morais ou que incentivam violência — tendem a gerar mais reação e engajamento na plataforma, especialmente quando provocam indignação. "Como esse conteúdo gera muito mais engajamento, nossos algoritmos passam a entender que os usuários gostam dele e querem ver mais", afirma o estudo. Silverman disse que, no início, a liderança da Meta parecia não saber como lidar com o conteúdo tóxico na plataforma e que houve um período em que a empresa estava "genuinamente introspectiva". Mas, segundo ele, essa posição "começou a se consolidar em uma espécie de postura defensiva". A atitude passou a ser a de que "não somos responsáveis por toda a polarização na sociedade", afirmou. "Ninguém está dizendo que vocês são responsáveis por toda a polarização. Estamos dizendo apenas que vocês contribuem para isso, e provavelmente de maneiras que poderiam evitar. Com algumas mudanças, essa contribuição poderia ser menor", afirmou Silverman. Um porta-voz da Meta negou as acusações feitas pelos denunciantes. "A verdade é que temos políticas rigorosas para proteger os usuários em nossas plataformas e fizemos investimentos significativos em segurança ao longo da última década", afirmou. A empresa também disse que "fez mudanças reais para proteger adolescentes online", incluindo a introdução de um novo recurso chamado Teen Accounts, "com proteções integradas e ferramentas para que os pais gerenciem a experiência de seus filhos adolescentes". Trend 'Caso ela diga não' estimula violência contra as mulheres e vira caso de polícia

MPT firma acordo para Meta bloquear perfis de crianças influencers sem autorização judicial


Ícone do Instagram em um smartphone. Dado Ruvic/Reuters/Ilustração O Ministério Público do Trabalho (MPT) e o Ministério Público de São Paulo (MP-SP) informaram nesta sexta-feira (20) que firmaram um acordo judicial com a Meta contra a exploração do trabalho infantil artístico irregular nas redes sociais. A Meta, dona do Instagram, do Facebook e do Threads, se comprometeu a identificar, de forma proativa, os perfis que apresentem trabalho infantil artístico sem autorização judicial e trabalho proibido, disse o MPT. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 A verificação por parte da empresa será periódica e vai considerar vários fatores, incluindo a presença de crianças ou adolescentes como protagonistas de conteúdos, o uso de contas com grande alcance (mínimo de 29 mil seguidores) e a atividade recente nas plataformas. Em caso de suspeitas, os responsáveis pelos perfis serão notificados para apresentar em até 20 dias alvará judicial que comprove a autorização para o trabalho infantil. O MPT e o MP-SP também poderão indicar perfis para análise. Caso a situação não seja regularizada, a conta será bloqueada no Brasil em até 10 dias. Veja os vídeos que estão em alta no g1 Como prints do bloco de notas criaram mais rastros de conversa entre Vorcaro e Moraes Vídeos no TikTok simulam agressões a mulheres em meio a recorde de feminicídios Youtuber diz não ter R$ 70 mil para pagar condenação por ridicularizar bebê e pede a juiz: 'Por favor, reconsidere' A Justiça do Trabalho em São Paulo proibiu, em agosto de 2025, o trabalho de influenciadores mirins no Instagram e no Facebook sem autorização judicial. A Meta entrou com uma liminar, mas a decisão foi mantida. O acordo também prevê que a Meta crie mecanismos de denúncia e sistemas de verificação de idade que impeçam a autodeclaração como único critério, além de restringir o acesso de menores de 18 anos a programas de monetização. A autodeclaração também foi proibida pelo Estatuto Digital da Criança e do Adolescente (ECA Digital), que entrou em vigor na última terça-feira (17) – entenda o que mudou. A lei determina que plataformas direcionadas a crianças e adolescentes ou com acesso provável por esse público devem "adotar mecanismos para proporcionar experiências adequadas à idade". Os procuradores consideraram o acordo com a Meta "um avanço significativo em prol da proteção de crianças e adolescentes nas dinâmicas de trabalho em ambiente digital, especialmente diante do crescimento da produção de conteúdo por crianças e adolescentes nas redes sociais". O descumprimento do acordo poderá levar a multa de R$ 100 mil por criança ou adolescente em caso de ausência de bloqueio de conta irregular e de R$ 300 mil por descumprimento de outras obrigações de fazer. Ainda em caso de violação, a Meta será obrigada a recolher R$ 2,5 milhões a fundos de proteção à infância e à adolescência. ECA Digital: estão em vigor as novas regras para menores em redes sociais, jogos e sites

#NÃO É BEM ASSIM: 'GTA VI' não será comercializado no Brasil após implementação da 'Lei Felca'


Medida afeta apenas loja do PC da Rockstar; jogo continuará disponível em outras plataformas e consoles no país g1 Circulam nas redes sociais publicações afirmando que a Rockstar Games, desenvolvedora americana de video-games, não irá mais comercializar seus títulos, incluindo o sexto volume da série "Grand theft auto (GTA)", no Brasil. As postagens, compartilhadas por perfis de direita e extrema direita nas redes, associam a suposta desistência da empresa à entrada em vigor da lei 15.211/2025, o Estatuto da Criança e do Adolescente Digital (ECA) Digital, apelidado de "Lei Felca", em referência ao influenciador Felipe Bressanim, que viralizou em 2025 após publicar um vídeo sobre a adultização de menores nas redes sociais. #NÃO É BEM ASSIM. selo não é bem assim arte 📝 Como é o post? As postagens afirmam que a empresa, que também assina as séries "Red dead" e "Max Payne", retirou as ofertas de seus jogos do país para cumprir com a regulamentação estabelecida pelo ECA Digital. Os posts – que incluem referências visuais e menções a Felca e ao presidente Luiz Inácio Lula da Silva (PT), que nesta quarta-feira (18) assinou três decretos para regular a medida – argumentam que o texto impõe a "censura" do jogo eletrônico para o público, incluindo maiores de idade. "É sempre a mesma história: quem deveria proteger, decide controlar. E a gente, que só queria jogar, paga o preço", diz uma publicação no X. A lei que protege crianças e adolescentes na internet começou a valer nesta terça-feira (17) e precisava de decretos para regulamentar alguns pontos (assista aos vídeos ao final desta checagem). ⛔ Por que #NÃO É BEM ASSIM? As postagens são enganosas porque, apesar de a nova regulamentação ter de fato obrigado o mercado de jogos eletrônicos a implementar medidas de verificação de idade e restrição de conteúdo +18, a Rockstar jamais anunciou que deixará de comercializar seus produtos no Brasil por completo. Em comunicado divulgado nesta terça, a empresa anunciou que irá parar de vender jogos para o Windows diretamente a consumidores no Brasil por meio de sua loja digital própria, mas que as obras, incluindo "Grand theft auto VI", previsto para ser lançado em novembro, continuarão disponíveis em mídia física e digital através de lojas eletrônicas como a PlayStation Store, a Microsoft Store e a Steam e poderão ser jogados normalmente em plataformas como PlayStation 5, Xbox Series X/S, Nintendo Switch 2 e PC. A mudança está relacionada às novas exigências da legislação brasileira, que determina que plataformas digitais adotem mecanismos mais rigorosos de verificação de idade. Segundo o texto, métodos baseados apenas em autodeclaração — como o tradicional botão "tenho mais de 18 anos" — não são suficientes, sendo necessário implementar sistemas mais confiáveis. Para evitar adaptações técnicas imediatas, algumas empresas têm optado por restringir serviços no Brasil ou limitar o acesso de menores. No caso da Rockstar, a decisão foi suspender as vendas diretas no país via PC. Ainda assim, microtransações dentro de jogos, como conteúdos adicionais de modos online, não serão afetadas. Assim, a ideia de que "GTA 6" não será vendido no Brasil é enganosa: o jogo seguirá disponível no país, mas com mudanças pontuais na forma como algumas empresas operam seus serviços digitais. Monetização, exploração de menores e pedofilia: entenda denúncias feitas por Felca ECA Digital: sites pornôs seguem sem checar idade, e redes tentam adivinhar faixa etária Saiba como ativar proteção para controlar tempo e atividade de crianças no celular Medida afeta apenas loja do PC da Rockstar; jogo continuará disponível em outras plataformas e consoles no país g1 Veja também O que é #FATO e o que é #FAKE na guerra entre EUA e Irã O que é #FATO e o que é #FAKE na guerra entre Estados Unidos e Irã no Oriente Médio VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Amazon planeja primeiro celular mais de 10 anos após tentativa frustrada com Fire Phone


Logo da Amazon, gigante da tecnologia. REUTERS/Dado Ruvic/Illustration/File Photo A Amazon está se preparando para lançar um novo celular, mais de 10 anos depois de anunciar um aparelho que foi considerado um de seus maiores fracassos, revelou nesta sexta-feira (20) a agência Reuters. O novo projeto é conhecido internamente como Transformer e está sendo desenvolvido pela unidade de dispositivos e serviços da Amazon, afirmaram à Reuters quatro fontes que pediram anonimato porque não estavam autorizadas a discutir assuntos internos. O telefone é visto como um potencial dispositivo de personalização móvel capaz de se sincronizar com a assistente de voz Alexa e servir como um canal de contato com os clientes da Amazon ao longo do dia, explicaram as fontes. Em 2014, a Amazon lançou seu primeiro smartphone, na esperança de enfrentar a Apple e a Samsung. Em vez disso, o Fire Phone – supervisionado diretamente pelo fundador Jeff Bezos – foi descartado em pouco mais de um ano. Jeff Bezos e o Fire Phone AP O projeto Transformer é o mais novo capítulo de um esforço de anos para levar ao mercado a visão de longa data de Bezos de um assistente de computação onipresente acionado por voz, semelhante ao computador controlado por voz da série de ficção científica "Star Trek". Bezos imaginou um smartphone com foco em compras e capacidade de competir com a Apple, oferecendo facilidades de entrega e descontos por meio da assinatura Prime. Com o aparelho, a Amazon poderia obter ainda mais dados sobre os usuários. As informações seriam combinadas com o histórico de compras e as preferências de conteúdo.  O esforço da Amazon para lançar um novo smartphone não foi relatado anteriormente. A Reuters não conseguiu determinar alguns detalhes, como o preço previsto do telefone, a receita projetada com o aparelho ou o investimento que a empresa está fazendo no projeto. O cronograma para o projeto Transformer da Amazon também não está claro, e as fontes advertiram que ele poderia ser descartado se a estratégia mudar ou devido a preocupações financeiras. Um porta-voz da Amazon não quis comentar sobre o caso. Os recursos de personalização do novo telefone facilitariam comprar no site da Amazon, assistir ao Prime Video, acessar o Prime Music ou pedir comida em serviços de delivery parceiros como o Grubhub, disseram as fontes. Um dos principais focos do Transformer é a integração de recursos de inteligência artificial no celular. Isso eliminaria a necessidade de lojas de aplicativos tradicionais, que exigem o download e o registro de aplicativos antes que eles possam ser usados. Amazon planeja voltar ao mercado de smartphones após mais de uma década do fracasso do Fire Phone

6 conselhos de especialistas sobre como falar com a IA para obter as melhores respostas

Alguns estudos sugerem que ser educado com a IA gera respostas melhores; outros apontam o contrário Getty Images via BBC Quando um g...