terça-feira, 24 de fevereiro de 2026

'PIB fantasma' e desemprego em massa: as previsões apocalípticas de texto sobre IA que viralizou e assustou mercados


'PIB fantasma' e desemprego em massa: as previsões apocalípticas de texto sobre IA que viralizou e assustou mercados. Getty Images via BBC As ações de algumas empresas de tecnologia — sobretudo de software — despencaram na segunda-feira (23/2) e analistas dizem que o principal motivo seria uma postagem em um blog que viralizou, pintando um cenário sombrio para a economia mundial diante da ascensão da inteligência artificial. As empresas de software Datadog, CrowdStrike e Zscaler viram suas ações despencarem mais de 9% cada uma ao longo da segunda-feira. A International Business Machines teve queda de 13% — seu pior desempenho em um único dia desde 2000. 📱Baixe o app do g1 para ver notícias em tempo real e de graça Outras empresas cujo desempenho também pode vir a ser afetado no futuro pela inteligência artificial também viram suas ações perderem valor. As ações da American Express caíram cerca de 7%, enquanto as do JPMorgan, Citigroup e Morgan Stanley recuaram mais de 4%. Mastercard e Visa tiveram quedas de mais de 4%. Segundo analistas e jornalistas especializados, o principal motivo por trás das quedas no mercado foi um post escrito pela Citrini Research, uma empresa que foi fundada pelo investidor James van Gleek. A Citrini Research é um dos canais de finanças mais lidos do Substack. Veja os vídeos em alta no g1: Veja os vídeos que estão em alta no g1 O texto que viralizou fala em um "PIB fantasma", a ideia de que a inteligência artificial vai aumentar a produtividade e até o tamanho de algumas economias, mas que provocaria ao mesmo tempo desemprego em massa ao substituir humanos. Com isso, esse aumento da riqueza seria apenas ilusório. "A explicação mais comum para a renovada apreensão [nos mercados na segunda-feira] foi uma postagem no blog da Citrini Research sobre como a IA poderia levar à demissão de muitos profissionais de alta renda e prejudicar a economia", escreveu o colunista Robert Armstrong, do jornal britânico Financial Times. Já o Wall Street Journal escreveu que "não é preciso muito para provocar movimentos turbulentos nas ações em um mercado dominado por ações de tecnologia e ansioso pelas perspectivas da inteligência artificial". "Mas nada evidencia a sensibilidade das ações neste momento como o que aconteceu na segunda-feira, quando um dos fatores por trás da queda de 800 pontos do Dow Jones foi um argumento hipotético de 7 mil palavras." O que diz o texto que viralizou? A Citrini Research afirma logo no começo que seu texto, publicado no domingo, não é uma previsão do futuro — mas sim um "exercício mental". "O único objetivo deste texto é modelar um cenário que tem sido relativamente pouco explorado", escreve. O texto é escrito como se fosse um relatório do dia 30 de junho de 2028. Ele relata um mundo com desemprego de 10,2% e queda de quase 40% do S&P (índice das ações das principais empresas listadas nos EUA). Em apenas dois anos, os mercados iriam de uma euforia com a inteligência artificial a uma profunda crise provocada pela ascensão da tecnologia. Segundo os autores, a inteligência artificial provocaria desemprego em massa entre trabalhadores de colarinho branco — atividades ligadas à administração e gerenciamento. A produtividade das empresas teria um salto com robôs sendo mais eficientes do que trabalhadores — já que agentes de IA "não dormem, não tiram dias de folga por doença e não precisam de plano de saúde". No entanto, isso geraria um "PIB fantasma": ganhos massivos de produtividade, mas com queda enorme nos salários reais, já que os trabalhadores substituídos teriam que buscar empregos com rendimentos menores. "Quando começaram a surgir fissuras na economia de consumo, os especialistas econômicos popularizaram a expressão 'PIB Fantasma': produção que aparece nas contas nacionais, mas nunca circula pela economia real", escreve a Citrini Research, prevendo o que analistas do futuro diriam sobre a crise. "Em todos os sentidos, a IA estava superando as expectativas, e o mercado era IA. O único problema... a economia não era." O texto descreve uma "espiral de substituição da inteligência humana" que teria acontecido a partir de 2026, no cenário fictício. "As capacidades de IA melhoraram, as empresas precisaram de menos funcionários, as demissões de profissionais de escritório aumentaram, os trabalhadores demitidos gastaram menos, a pressão sobre as margens levou as empresas a investir mais em IA, as capacidades de IA melhoraram… É um ciclo vicioso sem freio natural." O artigo descreve ficcionalmente uma empresa de inteligência artificial que consegue avanços na área de "agentic coding", em que agentes autônomos de IA escrevem e testam códigos com intervenção humana mínima. Com o tempo, empresas de software gerariam eficiências aos seus clientes, que precisariam de menos mão-de-obra. Mas menos trabalhadores também implica em menos licenças de software sendo compradas, gerando perdas financeiras ao próprio setor de softwares que desenvolveu novas tecnologias. 'Relações humanas' A crise no setor de softwares seria apenas um prelúdio de uma crise mais ampla, segundo ao artigo. Com o tempo, todos os setores produtivos passariam a usar agentes de inteligência artificial que produziriam ganhos enormes de eficiência. Praticamente todas as atividades humanas que necessitam de trabalho especializado — mediante pagamento por esses serviços — seriam otimizadas por máquinas: comércio, agências de turismo, contabilidade, serviços legais, entre outros. "Qualquer categoria em que a proposta de valor do prestador de serviços é 'Eu vou lidar com a complexidade que você considera tediosa' foi impactada, pois os agentes [de inteligência artificial] não acham que nada seja tedioso", escrevem os autores. Segundo eles, até mesmo áreas em que as relações humanas eram valorizadas se provariam frágeis. "O mercado imobiliário, onde os compradores toleravam comissões de 5 a 6% durante décadas devido à assimetria de informação entre o agente e o consumidor, desmoronou quando agentes de IA equipados com acesso a bases de dados com listagem de preços de propriedades e décadas de dados de transações puderam replicar instantaneamente a base de conhecimento." "[Descobrimos que por anos] havíamos superestimamos o valor das 'relações humanas'. Descobrimos que muito do que as pessoas chamavam de relacionamentos era simplesmente 'atrito' — só que apresentada de forma mais simpática." Outro exemplo dado pelos autores é o de aplicativos de entrega de comida. Segundo eles, desenvolvedores seriam capazes de criar, com ajuda da inteligência artificial, aplicativos mais eficientes que os atuais, repassando de 90% a 95% da receita direto aos motoristas, provocando uma falência em empresas que dominam o mercado hoje. Mas mesmo os motoristas não teriam muito futuro: já que em breve eles próprios seriam substituídos por veículos autônomos. Outra área de otimização seria em transações financeiras, com busca a alternativas mais baratas aos cartões de crédito, como Visa e Mastercard. O exemplo dado pela Citrini Research é o das stablecoins como Solana e Ethereum — que são criptomoedas com menos volatilidade. A migração para sistemas com stablecoins provocaria uma crise em empresas de meios de pagamentos. Empregos dizimados Segundo os autores, sempre houve uma crença de que "a inovação tecnológica destrói empregos e depois cria outros mais". Mas isso estaria mudando. "A IA agora é uma inteligência geral que aprimora justamente as tarefas para as quais os humanos seriam realocados. Programadores desempregados não podem simplesmente migrar para a 'gestão de IA', porque a própria IA já é capaz de fazer isso." Eles dizem que a inteligência artificial continuariam criando novos empregos — como engenheiros de prompt, pesquisadores de segurança em IA ou técnicos de infraestrutura — mantendo os humanos dentro da cadeia de produção. Mas esses empregos não seriam suficientes para absorver a mão-de-obra que seria perdida. E os salários seriam muito mais baixos. Os autores dão como exemplo fictício uma gerente sênior de produto. "[Em 2025, ela tinha] cargo, plano de saúde, previdência privada e salário de US$ 180 mil por ano (R$ 930 mil). Ela perdeu o emprego na terceira rodada de demissões. Depois de seis meses procurando emprego, começou a dirigir para o Uber. Seus ganhos caíram para US$ 45 mil (R$ 230 mil)". "Multiplique essa dinâmica por algumas centenas de milhares de trabalhadores em todas as principais metrópoles. A mão de obra superqualificada inundando a economia de serviços e de trabalhos temporários pressiona para baixo os salários dos trabalhadores que já estavam em dificuldades." O próximo passo, segundo os autores, seria sentido no mercado imobiliário. A queda brusca na massa de salários provocaria dificuldades para compradores pagarem por seus empréstimos imobiliários. Todo esse cenário de crise geraria uma resposta de governos, mas eles próprios estariam em situação mais frágil, dada a queda esperada em arrecadação de impostos. "O governo precisa transferir mais dinheiro para as famílias exatamente no momento em que está arrecadando menos impostos delas. [...] A capacidade da IA ​​está evoluindo mais rápido do que as instituições conseguem se adaptar. A resposta política está seguindo o ritmo da ideologia, não da realidade." Os autores lembram ao final do artigo que ainda não estamos em junho de 2028, como eles propõem retoricamente. Estamos em fevereiro de 2026 e esses "ciclos negativos ainda não começaram". "Temos certeza de que alguns desses cenários não se concretizarão. Da mesma forma, temos certeza de que a inteligência artificial continuará a se acelerar. Como investidores, ainda temos tempo para avaliar o quanto de nossos portfólios se baseia em premissas que não resistirão à década. Como sociedade, ainda temos tempo para sermos proativos." Reações Apesar de muitos atribuírem a quedas do mercado na segunda-feira ao texto da Citrini Research, nem todos levam a sério suas previsões. "O mais importante sobre o texto não é o que ele diz. É que o mercado de ações chegou ao ponto em que postagens em blogs causam movimentos significativos nas ações, ou pelo menos é o que as pessoas pensam que causam", escreve o colunista de mercados Robert Armstrong, do Financial Times. "A polêmica em torno da Citrini é mais uma prova de que estamos em um mercado inflado que busca uma desculpa para cair, por razões que provavelmente vão além da IA." Em artigo na revista Fortune, o editor de Negócios Nick Lichtenberg diz que o cenário traçado pela Citrini "pode estar ignorando a adaptabilidade humana e a resposta institucional" e que a inteligência artificial "poderia eventualmente democratizar o acesso à abundância" de recursos. "O argumento do 'PIB fantasma' da Citrini pressupõe que os salários humanos substituídos desaparecerão permanentemente da economia, ignorando como os ganhos de produtividade historicamente tendem a realocar valor em vez de destruí-lo", escreve Lichtenberg. "Quando a IA reduz os custos, bens e serviços ficam mais baratos, aumentando efetivamente o poder de compra real, mesmo para famílias com renda nominal mais baixa." Ele cita um Tanmai Gopal — CEO da empresa PromptQL, de análise de dados — que estima que 70% dos trabalhos de hoje não podem ser automatizadas, pois a IA precisa ser treinada com dados e o contexto humano é dinâmico demais para que ela seja atualizada com frequência suficiente. Na segunda-feira, o CEO do JPMorgan Chase — cujas ações caíram mais de 4% em meio às repercussões do artigo — afirmou que os temores sobre inteligência artificial são exagerados e que seu banco usará a tecnologia a seu favor. "Na minha opinião, sairemos vencedores", disse Jamie Dimon. "Nossa estratégia sempre foi usar a tecnologia para prestar um serviço melhor aos clientes, e somos muito bons nisso."

'Crianças tiveram seus dados coletados': Reddit é multado em R$ 100 mi no Reino Unido


Logo do Reddit. Dado Ruvic/ Reuters A plataforma online Reddit foi multada em 14,47 milhões de libras (mais de 100 milhões de reais) nesta terça-feira (24) pela agência reguladora britânica de proteção de dados (ICO, na sigla em inglês) por "uso ilegal de dados pessoais de crianças". O site americano "não implementou um mecanismo sólido de verificação de idade e não tinha base legal para processar os dados pessoais de crianças menores de 13 anos", escreveu a agência em nota, após iniciar sua investigação em março de 2025. "Crianças menores de 13 anos viram seus dados pessoais coletados e usados de maneiras que não podiam entender nem controlar. Assim, estiveram potencialmente expostas a conteúdo que não deveriam ter visto", enfatizou a ICO. Reino Unido vai endurecer regras para chatbots de IA após polêmica com o Grok, de Musk Veja o que países estão fazendo para regular o acesso de crianças às redes sociais Premiê britânico quer medidas para proteger crianças e adolescentes nas redes sociais A agência reguladora explicou que os termos de uso do Reddit proíbem o acesso à plataforma a crianças menores de 13 anos, mas que não havia medidas de verificação de idade antes de julho de 2025. Até então, o site se limitava a perguntar a idade dos usuários, sem verificação, observou a ICO, acrescentando que "a autodeclaração traz riscos para as crianças, pois é fácil burlar esse sistema". "O Reddit não exige que seus usuários compartilhem informações de identidade, independentemente da idade, porque estamos profundamente comprometidos em proteger sua privacidade e segurança", respondeu um porta-voz da empresa nesta terça-feira, acrescentando que planeja recorrer da decisão. A ICO também anunciou em março de 2025 outras duas investigações sobre o uso de dados de crianças, relacionadas ao TikTok e ao site americano de compartilhamento de imagens Imgur. O governo trabalhista de Keir Starmer intensificou recentemente seus esforços para proteger menores online, lançando uma consulta pública sobre uma possível proibição do uso de redes sociais por menores de 16 anos.

1 em cada 5 jovens viu nudez indesejada no Instagram, diz Meta em processo judicial


Criança brinca com celular em Ribeirão Preto, SP telas ansiedade Reprodução/EPTV Um em cada cinco usuários do Instagram com idades entre 13 e 15 anos disse à Meta que viu "nudez ou imagens sexuais" que não queria ver na plataforma, de acordo com um processo judicial. O documento, divulgado na sexta-feira (20) como parte de um processo no estado norte-americano da Califórnia e analisado pela Reuters, inclui trechos de um depoimento de março de 2025 do chefe do Instagram, Adam Mosseri. A pesquisa foi realizada em 2021, segundo Andy Stone, porta-voz da Meta. De acordo com ele, a estatística sobre imagens explícitas tem como base um levantamento com usuários do Instagram sobre suas experiências na plataforma — e não uma análise direta das publicações. A tática de grupos nazistas para espalhar discurso de ódio no TikTok A maioria das imagens sexualmente explícitas foi enviada por meio de mensagens privadas entre usuários, disse Mosseri em seu depoimento, e a Meta deve considerar a privacidade dos usuários ao analisá-las. "Muitas pessoas não querem que a gente leia suas mensagens", disse ele. Veja os vídeos que estão em alta no g1 Cerca de 8% dos usuários na faixa etária de 13 a 15 anos também disseram ter "visto alguém se machucar ou ameaçar fazer isso no Instagram", de acordo com o depoimento. No final de 2025, a empresa disse que, para usuários adolescentes, removeria imagens e vídeos "contendo nudez ou atividade sexual explícita, incluindo quando gerados por IA", com exceções consideradas para conteúdo médico e educacional. "Estamos orgulhosos do progresso que fizemos e sempre trabalhando para melhorar", disse Stone. A Meta, proprietária do Facebook e do Instagram, enfrenta alegações de líderes globais de que os produtos da empresa prejudicam os usuários jovens. Nos Estados Unidos, milhares de ações judiciais acusam a empresa de criar produtos viciantes e alimentar uma crise de saúde mental nos jovens. LEIA TAMBÉM: 'Não faça isso': executiva da Meta diz que IA alucinou e apagou seus e-mails Levei 20 minutos para enganar ChatGPT e Gemini – e os fiz contar mentiras sobre mim Criador do ChatGPT se recusa a posar de mãos dadas para foto com rival em evento de IA TikTok vira reduto de perfis que exaltam Hitler e o nazismo Chefões da OpenIA e da Anthropic se recusam a dar as mãos em evento A ofensiva da União Europeia para enquadrar as big techs

segunda-feira, 23 de fevereiro de 2026

O risco da inteligência artificial para o futuro do aprendizado e do trabalho


Na semana passada, acompanhei o Century Summit VI, evento realizado pela Universidade Stanford que, nessa sexta edição, teve como tema “Longevidade, aprendizado e o futuro do trabalho”. Allison Pugh, professora de sociologia da Universidade Johns Hopkins, foi responsável por uma das palestras mais impactantes. Enquanto a maioria dos participantes apontou a inteligência artificial como a saída para os impasses contemporâneos, ela preferiu alertar para o risco da idealização da IA. Allison Pugh, professora de sociologia da Universidade Johns Hopkins: empresas de IA visam ao lucro e farão de tudo para que sua tecnologia ocupe todos os espaços possíveis de ensino, mentoria e companhia Reprodução Para escrever seu mais recente livro, The last human job: the work of connecting in a disconnected world (em tradução livre, O último emprego humano: o trabalho de conectar-se em um mundo desconectado), Pugh entrevistou, ao longo de cinco anos, cerca de cem pessoas que exercem o que batizou de “trabalho de conexão” (connective labor). São profissionais como médicos, enfermeiros, terapeutas, cuidadores e até cabeleireiros, que, na sua avaliação, “vivenciam a empatia e enxergam o outro – e isso é o que o ser humano faz de melhor”, afirmou. A socióloga enfatizou que o futuro do aprendizado e do trabalho deve estar centrado nas pessoas. “Focar no potencial humano é o que leva à inovação. Quando há uma conexão mútua entre os indivíduos, eles constroem algo”, disse. Também ressaltou que criou o termo “trabalho de conexão” para chamar a atenção para a sua importância: “Estamos num momento crítico para pensar em como a inteligência artificial será usada, e o mais preocupante é ela ser apresentada como uma solução para substituir esses ‘trabalhos de conexão’. Não podemos perder de vista que as empresas de IA visam ao lucro e farão de tudo para que sua tecnologia ocupe todos os espaços possíveis de ensino, mentoria e companhia. A IA é moldada para manter o engajamento de quem a consome e seu objetivo é atender a todos os anseios da pessoa, inclusive desencorajando que se busque a ajuda de outro ser humano. Essa não é a IA que queremos. Queremos a tecnologia que fabricará medicamentos eficientes em tempo recorde, mas não aquela que pretende intervir ou mediar a vida de alguém”. Foi uma declaração forte e necessária para os tempos em que vivemos. Na opinião de Pugh, aprendizados e relacionamentos precisam de uma certa tensão, que ela chama de “fricção”. É assim que o indivíduo sai da sua zona de conforto para alcançar algo a que aspira: “Educadores sabem como essa fricção é relevante ao longo de toda a existência. A criatividade não acontece quando estamos satisfeitos. O sentido de propósito não nasce de estado contínuo de bem-estar e felicidade, mas de interações que envolvem dificuldades e tensões. No entanto, a IA é enaltecida porque não nos julga, porque não dorme e está sempre a postos e solícita. O que os algoritmos fazem é eliminar a fricção. Só que, no ambiente de trabalho e na vida, ocorre justamente o oposto. É fundamental a capacidade de se relacionar, o que pode estar sendo afetado, e até comprometido, quando se forja a ideia de que a inteligência artificial é a solução para tudo”. Para se ter uma ideia do tamanho da encrenca: na semana passada, o jornal The New York Times publicou reportagem relatando que a Meta, proprietária do Facebook, Instagram e WhatsApp, está se preparando para gastar US$ 65 milhões (perto de R$ 340 milhões) em 2026 para apoiar políticos favoráveis à indústria de inteligência artificial. O montante é o maior investimento eleitoral já feito pela empresa e sinaliza uma prioridade corporativa de escala bilionária. Inteligência artificial na educação

Códigos e até 'trends': a tática de grupos nazistas para espalhar discurso de ódio no TikTok sem serem detectados


TikTok vira reduto de perfis que exaltam Hitler e o nazismo Uma reportagem do g1, publicada no domingo (22), mostrou que perfis no TikTok exaltam Adolf Hitler e o nazismo, tanto de forma explícita quanto por meio de mecanismos de disfarce. No Brasil, a apologia ao regime é crime (saiba mais abaixo). Segundo as pesquisadoras Liriam Sponholz e Yasmin Curzi, especialistas em discurso de ódio, grupos neonazistas e supremacistas utilizam códigos para driblar a moderação da plataforma e tentar evitar responsabilização por apologia. Elas afirmam que, embora os propagadores de ódio tentem se esconder por trás de sinais, ainda assim fazem apologia ao nazismo. Desde o fim de janeiro, ao longo de quatro semanas, o g1 identificou ao menos 62 contas que publicaram conteúdos de exaltação ao nazismo. O g1 chegou a essas publicações a partir de uma denúncia enviada por um leitor, que não será identificado por segurança. "Encontrei esses perfis a partir de vídeos de denúncia publicados por outros usuários do próprio TikTok. Depois de acessar um deles, a plataforma passou a me recomendar cada vez mais conteúdos semelhantes", relatou. VC no g1: tem uma denúncia ou sugestão? Envie para o g1 🚨Como denunciar posts em Facebook, Instagram, TikTok... Em menos de três dias de monitoramento, o g1 passou a receber com frequência, na aba "For You" ("Para você"), vídeos, fotos e memes com essas referências. À medida que o acompanhamento avançava, novos perfis com esse tipo de material apareceram com mais frequência no feed. Além disso, foi encontrado um grande volume de comentários nesses posts com referências favoráveis à ideologia nazista. O g1 procurou o TikTok e compartilhou algumas das postagens encontradas. A rede social afirmou que esses conteúdos foram removidos por violarem as Diretrizes da Comunidade. O TikTok disse que não permite apoiar ou disseminar ideologias de ódio, "o que inclui alegações de supremacia sobre um grupo protegido, antissemitismo ou outras formas de preconceito". E que o uso de símbolos e imagens associados a movimentos de ódio também vai contra as diretrizes da plataforma (veja a resposta na íntegra ao fim da reportagem). "Nós treinamos regularmente nossos profissionais de segurança para ajudá-los a aprimorar a detecção de comportamento de ódio, símbolos, termos e estereótipos ofensivos, e para ajudá-los a identificar e proteger o contradiscurso." Uso de códigos para 'disfarçar' Grupos nazistas usam códigos para driblar a lei. Reprodução/TikTok A maioria das postagens encontradas pelo g1 usa hashtags, emojis e siglas para fazer referência à ideologia, embora existam também conteúdos explícitos. ⚠️ Os códigos usados por neonazistas e supremacistas não serão citados nesta reportagem para evitar sua propagação e promoção. Parte do material foi encaminhada para avaliação das pesquisadoras Liriam Sponholz e Yasmin Curzi, que confirmaram que muitos dos posts analisados fazem apologia ao nazismo. Segundo elas, o material codificado é o que pesquisadores chamam de "dog whistle" ("apito de cachorro"): um sinal de duplo sentido que passa despercebido para a maioria das pessoas, mas é reconhecido por quem tem familiaridade com a referência. A estratégia ainda permite manter certa negação plausível, explica Liriam Sponholz. Liriam faz parte do Instituto Nacional de Ciência e Tecnologia em Disputas e Soberanias Informacionais (INCT-DSI), que pesquisa, entre outros temas, a circulação de informações mediadas por plataformas, algoritmos e dados. "(As postagens) evitam usar símbolos explicitamente citados nas legislações, como a suástica, e também fazem questão de não mencionar diretamente certos termos. Por exemplo, deixam de citar de forma explícita palavras como "Hitler", diz Liriam. "A apologia está presente nesses posts, mas, do ponto de vista jurídico, nem sempre é interpretada como tal justamente por não ser explícita", completa. Liriam observa que, nas redes, comprovar a intenção é muito complicado. Ainda assim, ela alerta que não se pode usar essa dificuldade como justificativa para permitir que a apologia ao nazismo continue circulando. Perfis de diversos países As postagens encontradas pelo g1 foram feitas em vários idiomas, incluindo português, mas não revelam onde estão seus criadores. Também não é possível confirmar oficialmente a localização das contas, já que, ao contrário do X e do Instagram, o TikTok não informa o país de origem do perfil. Ainda assim, a plataforma tikip.us, que reúne dados e estima a localização de contas do TikTok, aponta que 15 das 62 analisadas estariam no Brasil. As demais foram atribuídas a países como Estados Unidos, Arábia Saudita, Alemanha, Belarus, Reino Unido e Polônia. Publicação concentra comentários de apologia ao nazismo. Reprodução/TikTok Em um dos posts identificados pelo g1, um carrossel de fotos exibe a frase em inglês "because I remember you" ("porque eu me lembro de você"), sobreposta a uma imagem que aparenta retratar Adolf Hitler (veja na imagem acima). Nos comentários, também em inglês, aparecem mensagens como "meu herói", "meu líder", "sinto muito a sua falta" e "ele estava fazendo a coisa certa". Em outro caso, em um perfil com conteúdo em português, o g1 identificou uma espécie de "trend" em que usuários faziam referência à morte de Hitler, em 30 de abril de 1945, atribuindo ao episódio um sentido positivo. Publicações com teor semelhante também foram encontradas em inglês e em espanhol (veja na imagem abaixo). Um dos posts dessa conta, publicado em junho de 2025, soma 371 mil visualizações e 46 mil curtidas. Entre os mais de 660 comentários, houve críticas à publicação. "Amigo, mas se o H [Hitler] estivesse vivo, vc não estaria vivo kkkk se toca, vc é latino-americano", escreveu um usuário. 'Me sinto suja', diz brasileira vítima de foto editada de biquíni pela IA de Musk Trend no TikTok faz referência à morte de Adolf Hitler Reprodução/TikTok Outro saiu em defesa do conteúdo: "Poxaa, foi só uma brincadeira, humor apenas, fica em paz pq ele com certeza sabe". A resposta veio em seguida: "Humor? HUMOR? Claro, com um cara que matou pessoas pela fé, pela cor, pelo pensamento diferente". "Brincar com a morte de milhões? Não é brincadeira", comentou mais um usuário. No Brasil, exaltar o ideário nazista, usar símbolos, distribuir emblemas ou fazer propaganda da doutrina é crime, com pena de reclusão, conforme a Lei Federal 7.716/1989 (saiba mais ao final da reportagem). Liriam diz que o 30 de abril de 1945 é usado com a intenção de enviar uma mensagem que só quem compartilha dessa visão de mundo entende. Apesar da referência indireta ao suicídio de Hitler e do uso desse tipo de codificação por extremistas, juridicamente, pela lei brasileira, a expressão não pode ser classificada com clareza como antissemita, afirma Yasmin Curzi, professora de direito da FGV e pesquisadora do Karsh Institute of Democracy da Universidade da Virginia, nos EUA. "Eles usam uma estratégia para não entrar na área juridicamente relevante e ficar abaixo do radar da Justiça. As pessoas nesses vídeos evitam algo explícito justamente para não fazer apologia de forma aberta", completa Liriam. Conteúdos explícitos também são encontrados Vídeo postado no TikTok mostra homem dançando com suástica girando ao fundo Reprodução/TikTok Embora boa parte dos perfis recorra a códigos para tentar se resguardar, o g1 encontrou com facilidade publicações explícitas. Ao pesquisar por termos e símbolos associados a movimentos neonazistas, a busca do TikTok não impediu que esse tipo de postagem fosse exibido. Foi assim que o g1 localizou, por exemplo, um vídeo em que um homem aparece dançando com o símbolo da suástica girando ao fundo (veja acima). Esse mesmo perfil ainda traz, na bio, a frase "White Power" (ou "poder branco", em português), expressão comumente associada a grupos supremacistas que defendem a ideia de superioridade de pessoas brancas sobre outras etnias. Outro vídeo encontrado pelo g1 exibe a águia imperial nazista com a cruz de ferro e a frase em inglês "um dia as pessoas vão perceber que ele estava certo" (veja na imagem abaixo). Segundo Yasmin Curzi, o mesmo perfil publicou diversos outros conteúdos explicitamente nazistas. O vídeo em questão acumula pouco mais de 51 mil visualizações, além de mais de 6,7 mil curtidas e 155 comentários. Vídeo postado no TikTok traz a águia imperial nazista com a cruz de ferro. Reprodução/TikTok Em outro momento, ao pesquisar na ferramenta de busca da rede social por um símbolo associado a uma organização paramilitar ligada ao Partido Nazista, o TikTok exibiu o aviso de que "a frase pode estar associada a comportamento ou conteúdo que viola nossas diretrizes". Ainda assim, o mesmo símbolo aparece na bio de um perfil identificado pela reportagem, o que indica que os filtros da plataforma não conseguiram impedir totalmente o uso desse código. No Tiktok, um mesmo termo associado ao nazismo é bloqueado nos resultados de busca, mas é mantido na descrição de um perfil Reprodução/TikTok O TikTok também permite que usuários comentem em publicações com imagens estáticas ou animadas. Na maioria dos vídeos monitorados, aparecem imagens em tom de meme com Adolf Hitler acompanhadas da expressão "Absolute cinema" ou "Cinema absoluto", em português. A frase é bastante popular na internet e costuma ser usada para se referir, de forma elogiosa ou irônica, a cenas de filmes, séries ou novelas consideradas icônicas, de alta qualidade ou com uma pegada cinematográfica. Grupos postam nos comentários do TikTok 'memes' de exaltação a Hitler Reprodução/TikTok Nos dois exemplos acima, as imagens foram publicadas nos comentários de um vídeo antigo que mostra a Alemanha durante o regime nazista. Na imagem à direita, Hitler aparece ainda criança. Além disso, o g1 encontrou inúmeros vídeos com o símbolo de uma caveira que é associado à unidade que administrava os campos de concentração nazistas. "A divulgação (desse símbolo) não é apenas apologia ao nazismo, mas também discurso de ódio antissemita", diz Liriam. Nos três exemplos abaixo onde o símbolo aparece, os vídeos foram exibidos na aba "Para você" do TikTok enquanto o feed era rolado. As publicações surgiram em menos de cinco minutos de navegação. Postagens com símbolo associado ao nazismo Reprodução/TikTok O que diz a lei brasileira A apologia ao nazismo, com o uso de símbolos nazistas, a distribuição de emblemas ou a propaganda do regime, é crime previsto em lei no Brasil, com pena de reclusão. A apologia ao nazismo se enquadra na Lei 7.716/1989, segundo a qual é crime: praticar, induzir ou incitar a discriminação ou preconceito de raça, cor, etnia, religião ou procedência nacional. Pena: reclusão de um a três anos e multa – ou reclusão de dois a cinco anos e multa se o crime for cometido por meio de publicações ou em meios de comunicação social. fabricar, comercializar, distribuir ou veicular símbolos, emblemas, ornamentos, distintivos ou propaganda que utilizem a cruz suástica ou gamada, para fins de divulgação do nazismo. Pena: reclusão de dois a cinco anos e multa. A lei é respaldada pela própria Constituição, que classifica o racismo como crime inafiançável e imprescritível. Isso significa que pode ser julgado e punido a qualquer momento, independentemente do tempo decorrido desde a conduta. Inicialmente, a legislação não mencionava o nazismo de forma explícita, pois era voltada principalmente ao combate ao racismo sofrido pela população negra. As referências diretas ao nazismo foram incluídas em 1994 e 1997, por meio de projetos de lei. "A apologia ao nazismo é racismo, configura crime e viola a Convenção Interamericana contra o Racismo, ratificada pelo Brasil em 2022. Há ampla jurisprudência sobre o tema. Esses posts deveriam ser removidos pelo TikTok e não poderiam ser recomendados ou exibidos sem login, o que amplia sua disseminação", conclui Yasmin. Perfil no TikTok dedicado a conteúdo nazista. Reprodução/TikTok O que diz o TikTok "Os conteúdos compartilhados foram removidos da plataforma por violarem as nossas Diretrizes da Comunidade. Sobre nossas diretrizes de comportamento e discurso de ódio: o TikTok não permite discurso ou comportamento de ódio, bem como a promoção de ideologias de ódio. Nossas Diretrizes da Comunidade proíbem explicitamente: Incentivar a violência, segregação, discriminação ou outros danos contra pessoas com base em atributos protegidos, como raça ou religião. Apoiar ou disseminar ideologias de ódio, o que inclui alegações de supremacia sobre um grupo protegido, antissemitismo ou outras formas de preconceito. O uso de símbolos e imagens associados a movimentos de ódio. Negar ou minimizar atrocidades históricas bem documentadas contra grupos protegidos, como o Holocausto. Aplicação de moderação baseada em nossas diretrizes acerca do tema: Nós treinamos regularmente nossos profissionais de segurança para ajudá-los a aprimorar a detecção de comportamento de ódio, símbolos, termos e estereótipos ofensivos, e para ajudá-los a identificar e proteger o contradiscurso. Consultamos acadêmicos e especialistas de todo o mundo para nos mantermos atualizados sobre as tendências em evolução e para nos ajudar a avaliar e melhorar regularmente nossas políticas e processos de aplicação. Bloqueamos buscas por termos relacionados a ódio ou ideologias de ódio e redirecionamos a busca para as nossas Diretrizes da Comunidade para educar nossa comunidade sobre nossas políticas contra a expressão de ódio. Em nosso Centro de Transparência, publicamos, trimestralmente, um relatório de moderação com os números do período. O mais recente, do terceiro trimestre de 2025, mostra que 98,8% dos conteúdos que violaram nossas políticas de Segurança e Civilidade – que incluem nossas regras sobre comportamento e discurso de ódio – foram removidos proativamente, sendo que 87% foram removidos antes de receberem qualquer visualização." Colaborou nesta reportagem: Victor Hugo Silva Grok: ferramenta gratuita da rede social X é usada para criar imagens íntimas falsas Entenda nova regra que exige confirmação de idade de usuários por sites e aplicativos

OpenClaw, IA usada para criar rede social de robôs, alucina e apaga e-mails de executiva da Meta


Por que o Moltbook, rede social das IAs, pode não ser a revolução que promete O agente de inteligência artificial OpenClaw ganhou fama há algumas semanas após ter sido usado para criar o Moltbook, rede social exclusiva para robôs. A ferramenta pode automatizar várias tarefas, mas também é capaz de colocar dados em risco. Um caso revelado nesta segunda-feira (23) indica que o OpenClaw pode ter apagado vários e-mails de uma usuária por engano. A conclusão foi de que o agente alucinou quando deveria analisar as mensagens e indicar quais poderiam ser excluídas. Foi o que relatou Summer Yue, diretora de segurança e alinhamento no time de superinteligência artificial da Meta, controladora do Instagram, do Facebook e do WhatsApp. 🔎 Agentes de IA são programas que executam tarefas de forma autônoma, como fazer compras online ou reservar restaurantes. Ao contrário dos chatbots, os agentes tomam decisões e executam ações sozinhos, em vez de apenas responder ao que é solicitado. O que é 'alucinação' de inteligência artificial IA do Instagram alucina e inventa que banda tem ligação com supremacia branca OpenClaw Reprodução Summer Yue relatou que tinha experimentado o OpenClaw em uma caixa de entrada de testes e que o agente tinha executado a tarefa como previsto. Mas disse que, como sua conta de e-mail tinha muitas mensagens, a instrução foi perdida. "Fiquei confiante demais porque esse fluxo de trabalho estava funcionando na minha caixa de entrada de teste há semanas. Caixas de entrada reais são diferentes", afirmou Yue em sua rede social. "Nada te humilha mais do que dizer ao seu OpenClaw 'confirme antes de agir' e vê-lo deletar sua caixa de entrada em alta velocidade". A interação com o OpenClaw era feita por meio de um aplicativo de mensagens. Ao perceber que as mensagens estavam sendo apagadas, Yue tentou interromper o funcionamento da IA, mas não conseguiu. A saída foi desativar a exclusão dos e-mails no dispositivo em que o OpenClaw estava hospedado. "Tive que correr para o meu Mac mini [computador da Apple] como se estivesse desarmando uma bomba", afirmou. 'Openclaw, pare': executiva da Meta fez várias tentativas para impedir agente de IA de apagar seus e-mails Reprodução O gerenciamento de e-mails é justamente uma das tarefas que usuários do OpenClaw mais destacam sobre a ferramenta. A ferramenta também pode ser usada para lidar com contratos, enviar mensagens e controlar luzes inteligentes, por exemplo. O agente chamou atenção pela quantidade de ações que é capaz de automatizar e pela possibilidade de centralizar informações de vários serviços em um só lugar, o que pode aumentar a produtividade de seus usuários. Mas as permissões amplas que a ferramenta precisa para agilizar certas tarefas é um dos pontos que levanta preocupações. E, caso o comando seja mal interpretado, o prejuízo pode ser enorme. LEIA TAMBÉM: Críticas aos humanos, livre-arbítrio, religião: o que robôs comentam no Moltbook, rede social só para IAs Moltbook, rede social das IAs, faz robôs conversarem entre si, mas o quanto disso é real? 'Não dá pra viver sem VPN': como brasileiros na Rússia driblam restrições às redes sociais Caricatura no ChatGPT: como transformar sua foto em desenho com a IA Moltbook: o que é real e o que é exagero na rede social pra agentes de IA?

Celular resistente à água: entenda por que a proteção não dura para sempre

Celular resistente à água: entenda por que a proteção não dura para sempre Seu celular caiu na água e sobreviveu? Isso provavelmente aconteceu porque o aparelho tem alguma certificação de resistência a líquidos e poeira, como a IP67 ou a IP68. E se eu comprar um telefone usado que tem esse tipo de proteção, em bom estado de conservação, a vedação segue valendo? Essa foi uma das dúvidas de um dos leitores do g1 na reportagem sobre o que fazer se o celular cair na água. O que muita gente não sabe é que essa proteção IP não é permanente. Ela se desgasta com o uso diário, quedas e até mesmo com pequenos respingos, um fato confirmado pelas fabricantes consultadas pelo Guia de Compras: Apple, Jovi, Motorola, Oppo, Samsung e Xiaomi. A proteção IP não é para sempre. Mesmo que o celular seja usado com cuidado e não tenha danos visíveis, a vedação perde eficiência com o tempo devido ao desgaste natural dos componentes. Não dá para dizer quanto tempo essa proteção vai durar – cada pessoa usa o celular de um jeito diferente. Quedas, mesmo aquelas que não quebram a tela ou amassam a carcaça, também contribuem para a diminuição da resistência. E se o aparelho pegar chuva? Se não houver outros danos, basta secá-lo (não use arroz). É comum que a água entre em aberturas como as dos microfones, alto-falantes e portas de conexão, o que pode causar falhas temporárias. É importante ressaltar que a resistência dos celulares é testada apenas em água doce e em condições controladas de laboratório. Algumas marcas, como a Samsung, especificam que o aparelho não deve ser usado na praia ou na piscina. Segundo Igor Marchetti, advogado do Instituto de Defesa de Consumidores (Idec), quando uma fabricante anuncia que seu produto é resistente à água, "ela precisa trazer todas as condições e limites dessa resistência de forma clara e objetiva". "As informações de exceções à garantia dos produtos devem ser visíveis ao consumidor", explica o advogado. Caso contrário, a prática pode violar o Código de Defesa do Consumidor (CDC), principalmente o direito à informação. O que as empresas geralmente fazem é divulgar essas condições em notas de rodapé ou em páginas de suporte em seus sites, quase sempre com letras pequenas. Se o celular apresentar um defeito durante o período da garantia, a assistência técnica consegue verificar se entrou água no aparelho. Caso isso seja detectado, o reparo em garantia é negado. Isso gerou uma notificação contra a Apple em 2020, quando 21 clientes acionaram o Procon-SP. O órgão pediu que a empresa explicasse a recusa de conserto para iPhones danificados por água, mesmo dentro da garantia. Em 2021, o Procon-SP multou a Apple em R$ 10 milhões pela venda de iPhones sem carregador e citou a publicidade sobre a resistência à água como "enganosa". Em seu site oficial, a Apple afirma que "danos por líquido não são cobertos pela garantia", mas reconhece que o cliente "talvez tenha direitos conforme o Código de Defesa do Consumidor”. Marchetti, do Idec, recomenda que o consumidor observe atentamente as especificações de uso e os limites de resistência do celular antes da compra. Segundo ele, a ausência dessa informação de forma clara pode ser considerada um "defeito do produto, passível de responsabilização caso o consumidor seja frustrado”. Qual o nível de proteção do seu aparelho? Os fabricantes de smartphones certificam seus os equipamentos pela classificação IP (ingress protection). Essa informação está presente nos sites dos fabricantes e no manual dos celulares. Esse é um código criado pela IEC (Comissão Eletrotécnica Internacional, em inglês) que ajuda a identificar a proteção e a resistência dos aparelhos contra poeira, impacto e líquidos. O primeiro dígito da classificação informa a proteção contra objetos sólidos. O segundo dígito, a proteção contra água: O que significam os números na proteção IP? Veja a seguir uma lista de aparelhos com proteção IP67 e IP68 à venda nas lojas on-line. Os preços, consultados no meio de fevereiro, iam de R$ 2.200 a R$ 7.200. iPhone 17 Jovi Y31 4G Moto Edge 60 Neo Oppo Reno 14F Realme 15T Samsung Galaxy A56 Xiaomi Redmi Note 15 Pro Esta reportagem foi produzida com total independência editorial por nosso time de jornalistas e colaboradores especializados. Caso o leitor opte por adquirir algum produto a partir de links disponibilizados, a Globo poderá auferir receita por meio de parcerias comerciais. Esclarecemos que a Globo não possui qualquer controle ou responsabilidade acerca da eventual experiência de compra, mesmo que a partir dos links disponibilizados. Questionamentos ou reclamações em relação ao produto adquirido e/ou processo de compra, pagamento e entrega deverão ser direcionados diretamente ao lojista responsável.

'PIB fantasma' e desemprego em massa: as previsões apocalípticas de texto sobre IA que viralizou e assustou mercados

'PIB fantasma' e desemprego em massa: as previsões apocalípticas de texto sobre IA que viralizou e assustou mercados. Getty ...