quinta-feira, 5 de março de 2026

É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025


É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025 Reprodução Circula nas redes sociais um vídeo com imagens aéreas que supostamente mostra escombros de torres em Tel Aviv, em Israel, destruídos por mísseis. É #FAKE. selo fake g1 🛑 Como é o vídeo falso? Publicado netsa terça-feira (3) no X, onde teve mais de 620 mil visualizações, o post tem a seguinte legenda, em inglês: "Tel Aviv está assim em apenas 48 horas". Ela omite que se trata de algo criado com inteligência artificial (IA) – entenda abaixo. Na seção de comentários, usuários questionaram a veracidade do conteúdo, que viralizou em meio à guerra de Estados Unidos e Israel contra o Irã, iniciada no sábado (28). O presidente Donald Trump declarou que o principal objetivo seria destruir o programa nuclear iraniano. Embora o vídeo em questão seja falso, há registros reais de um ataque com mísseis que teve Tel Aviv como alvo. Uma ação no próprio sábado deixou ao menos um morto e 21 feridos. Edifícios, lojas e ruas sofreram danos. ⚠️ Por que isso é mentira? O Fato ou Fake submeteu o vídeo à plataforma Hive Moderation, que detecta conteúdos fabricados por IA. Resultado da análise: 99,9%% de probabilidade de esse recurso ter sido usado em toda a extensão do clipe (veja infográfico ao final desta reportagem). Em junho de 2025, o Fato ou Fake checou uma publicação que usou um conteúdo idêntico e circulou durante um conflito anterior entre Israel e Irã. A checagem já apontava que, ao longo do vídeo, é possível encontrar falhas típicas de cenas sintéticas: a partir do sexto segundo, o caminhão dos bombeiros do canto direito inferior se transforma em um carro branco (veja abaixo). Além disso, o letreiro de um dos prédios está em uma língua inexistente (indetectável por aplicativos de tradução automática), que apenas se assemelha ao hebraico. Caminhão de bombeiro "vira" carro g1 Para descobrir a origem da cena o Fato ou Fake utilizou a ferramenta InVID e fragmentou o material em diversos frames (imagens estáticas). Depois, fez uma busca reversa por essas "fotos" no Google Lens. Essa pesquisa serve se esse registro já havia sido anteriormente publicado na internet – em que contexto. O resultado levou a um vídeo de 16 segundos publicado em 14 de junho do ano passado no TikTok. O perfil cita o termo "resistência da inteligência artificial". Nos dias 26 e 27 de maio, ele já havia publicado conteúdos que, supostamente, exibia áreas residenciais destruídas em Tel Aviv – sendo que, naquela data, Israel e Irã não estavam em conflito armado. O Fato ou Fake submeteu o vídeo à ferramenta de verificação Hive Moderation, que apontou 99,9%% de probabilidade de uso de IA em toda a extensão do clipe. Reprodução É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025 Reprodução Veja também O que é #FATO e o que é #FAKE na guerra entre EUA e Irã O que é #FATO e o que é #FAKE na guerra entre Estados Unidos e Irã no Oriente Médio VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Como descobrir câmeras escondidas em tomadas e espelhos usando o celular


Câmera escondida: Veja como se identificar Não são raras as histórias de pessoas que encontram câmeras escondidas em espaços de grande circulação. Em um caso recente, uma mulher encontrou o dispositivo escondido no banheiro da empresa em que ela trabalha, em Içara (SC). A gravação de imagens sem autorização pode configurar crime, ainda que seja for feita para fins de segurança. O Código Penal prevê pena de 6 meses a 1 ano de detenção, além de multa, para quem gravar cenas íntimas sem o conhecimento de quem está nelas. Não existe uma forma simples de garantir que um local esteja completamente livre de câmeras escondidas. Mas o celular pode ser um aliado para diminuir os riscos. Funcionária encontra microcâmera em banheiro da empresa em Içara PMSC/Divulgação Especialistas recomendam seguir um passo a passo para checar a segurança de quartos e banheiros. A prática pode ser inviável no dia a dia por conta de tantos locais visitados, mas é útil se você ficar por muito tempo em um novo local, como um quarto de hotel. "A pessoa pode verificar a lâmpada, as tomadas, os relógios [para procurar equipamentos acoplados]. Todo equipamento eletrônico que tem energia elétrica ou que não deveria estar naquele lugar pode ser verificado", disse o especialista em cibersegurança Alexandre Armellini ao g1 em uma reportagem de 2024. Confira dicas abaixo. 1ª dica: procure reflexos de lentes de câmeras Vitória Coelho/Arte g1 Com o quarto mais escuro possível, ligue a câmera do celular com o flash ativado e olhe pela tela para ver se a luz está refletindo pequenos pontinhos em lugares incomuns, como detectores de fumaça ou luminárias – esse reflexo pode revelar a presença de uma lente de câmera. 2ª dica: busque luzes infravermelhas Vitória Coelho/Arte g1 Ainda no ambiente escuro, com a câmera do celular e o flash desligado, veja se você encontra uma pequena luz roxa piscando no quarto. Ela pode indicar a existência de uma câmera capaz de registrar imagens no escuro. 3ª dica: confira as tomadas Vitória Coelho/Arte g1 Use equipamentos como o carregador de celular para testar a instalação elétrica do quarto – se as entradas forem do mesmo padrão que o plugue do equipamento e não for possível conectá-lo à tomada, ela foi possivelmente adulterada. 4ª dica: verifique os espelhos Vitória Coelho/Arte g1 Aponte a lanterna do celular para espelhos em busca de pontos transparentes. Toque nos vidros para conferir, pelo barulho, se eles estão ocos, o que pode ser um indício de que existam equipamentos embutidos – essa técnica de espionagem exige um espaço considerável atrás dos espelhos, então, diz respeito aos que estão colocados em molduras ou caixas que os distanciam da parede. O que fazer além disso? Na busca por câmeras, concentre-se em locais em que elas poderiam, de fato, ser escondidas. É o caso de pontos mais altos e nos cantos do quarto, bem como os que estão próximos a tomadas e que possam ficar "camuflados" atrás da decoração, por exemplo. Também é importante checar acessórios que possam ser emprestados pelo estabelecimento, como carregadores de celular. Eles podem ter uma pequena luz, onde é possível manter uma câmera acoplada. Mas, ainda que as câmeras sejam discretas, elas não chegam a ser microscópicas. As lentes podem caber no buraco da tomada, mas, por trás, elas chegam a ter o tamanho de uma moeda, explicou Hugo Bernardes, mestre em engenharia eletrônica. "Não existem câmeras muito pequenas de fácil acesso. As câmeras minúsculas custam muito caro. Então, o que se encontram são câmeras um pouco maiores com um circuito de alimentação. Podem até existir câmeras com bateria, mas elas duram pouco", afirma. Segurança, mas sem paranoia É possível ir ainda além e usar ferramentas que identifiquem dispositivos que estão usando o Wi-Fi ou comprar acessórios como detectores de radiofrequência para buscar câmeras escondidas. Mas, como os métodos podem conter informações técnicas, eles podem mais confundir do que ajudar. A busca por emissões de frequência também pode ser prejudicada pela presença de outros aparelhos, diz Bernardes. "O seu celular já emite radiofrequência, bem como um notebook, uma lâmpada inteligente, o Wi-Fi e o próprio rádio". E, apesar das medidas de segurança, a orientação é evitar que a preocupação estrague o momento de lazer. Isso porque não é possível ter 100% de certeza de que a acomodação ou qualquer outro espaço público esteja sendo vigiado. "Temos que tomar muito cuidado para não ir para o lado da paranoia. Senão, ninguém mais tem vida", disse Armellini. Funcionária encontra microcâmera em banheiro da empresa em Içara

É #FAKE vídeo de menino chorando diante de caixão de soldado americano morto no Irã; cena foi criada com inteligência artificial


É #FAKE vídeo de menino chorando diante de caixão de soldado americano morto no Irã; cena foi criada com inteligência artificial Reprodução Circula nas redes sociais um vídeo que supostamente mostra um menino chorando diante do caixão do pai, que seria um soldado dos Estados Unidos morto no Irã. É #FAKE. g1 🛑 Como é o vídeo? Publicado nesta quarta-feira (4) no X, o post tem a seguinte legenda, em espanhol: "Isso é o que foi ocasionado por #Netanyahu e #Donald_J_Trump, supostamente o pacificador do mundo, o que exigiu o prêmio Nobel da Paz [...]". O vídeo mostra um menino chorando e abraçando um caixão coberto por uma bandeira dos americana. A criança diz, em inglês: "Meu papai, não!". Uma mulher o abraça e fala: "Meu filho, não chore, seja forte como seu pai". Ao redor, há militares em fileira observando a cena. O post omite que o material foi produzido com inteligência artificial (IA) — leia mais abaixo. Na seção de comentários, usuários perguntaram ao Grok, chatbot de IA do X, se o conteúdo era real ou sintético. O conteúdo viralizou dois dias após depois de os EUA terem confirmado a morte de seis militares americanos no conflito com o Irã. A guerra começou no sábado (28), após um ataque que também teve participação de Israel. O presidente Donald Trump declarou que o principal objetivo seria destruir o programa nuclear iraniano. ⚠️ Por que isso é falso? O Fato ou Fake submeteu o vídeo ao HiveModeration, ferramenta de detecção de conteúdos produzidos com IA. Resultado: 99,9% de probabilidade de o material ter sido criado com esse recurso (veja infográfico ao final desta reportagem). Além disso, a cena apresenta sinais de manipulação. As mãos do garoto e a perna da mulher aparecem distorcidas no início da gravação (veja abaixo). Vídeo de IA tem sinais de distorção. Reprodução HiveModeration aponta uso de IA em vídeo. Reprodução É #FAKE vídeo de menino chorando diante de caixão de soldado americano morto no Irã; cena foi criada com inteligência artificial Reprodução Veja também O que é #FATO e o que é #FAKE na guerra entre EUA e Irã O que é #FATO e o que é #FAKE na guerra entre Estados Unidos e Irã no Oriente Médio VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica . .. É #FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Anthropic retoma conversa com os EUA sobre uso militar de sua IA, diz jornal

Entenda embate entre governo dos EUA e Claude, rival do ChatGPT A Anthropic, empresa que criou o assistente de inteligência artificial Claude, retomou a conversa com o governo dos Estados Unidos sobre o uso militar de suas ferramentas, revelou nesta quinta-feira (5) o jornal Financial Times. O acordo voltou a ser discutido depois de um impasse na última semana sobre como modelos da Anthropic poderiam ser usados pelas Forças Armadas dos EUA. A empresa não quer que elas sirvam para vigilância em massa de cidadãos e sistemas de armamento autônomos, por exemplo. Mas o governo americano quer que eles sejam usados para qualquer finalidade "lícita". Sem um acordo, o presidente americano Donald Trump determinou na sexta-feira (27) que agências federais do país interrompessem o uso de programas de IA da Anthropic. O secretário de Guerra de Trump, Pete Hegseth, ameaçou classificar a empresa como um risco para a cadeia de fornecimento, o que forçaria empresas do ramo militar a cortar laços com a empresa. Mesmo com a ordem contrária, os EUA usaram o Claude na ofensiva militar contra o Irã, segundo o The Wall Street Journal. O assistente costuma ajudar o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha Agora, com um possível acordo, militares americanos poderiam voltar a usar livremente modelos de inteligência artificial da Anthropic, e a empresa correria menos risco de ser considerada um risco. A rival OpenAI, dona do ChatGPT, também poderia ter os planos afetados depois de anunciar na última semana um acordo que liberou o uso de seus modelos de IA pelo Pentágono. Avaliada em US$ 380 bilhões, a Anthropic foi a primeira a assinar um contrato com a defesa dos EUA para uso de modelos de IA para fins militares. O acordo de US$ 200 milhões foi firmado em julho de 2025 e, depois, foi assinado com outras empresas como a OpenAI e o Google. LEIA TAMBÉM: Irã tem novo apagão de internet em meio a conflito com EUA e Israel 'Não dá pra viver sem VPN': como brasileiros na Rússia driblam restrições às redes sociais 'Crise da memória' deve fazer venda de celulares ter maior queda da história em 2026

X suspenderá monetização de vídeos de guerra feitos com IA sem aviso


Grok: ferramenta gratuita da rede social X é usada para criar imagens íntimas falsas A rede social X anunciou, nesta terça-feira (3), que suspenderá por 90 dias do programa de distribuição de receitas os criadores que compartilharem vídeos de conflitos armados sem revelar que foram produzidos com inteligência artificial (IA). É #FAKE vídeo de jato de Israel explodindo ao ser abatido no Kuwait; cena foi criada com inteligência artificial É #FAKE imagem de satélite que mostra antes e depois de ataque a base dos EUA no Catar; conteúdo foi manipulado com IA A mudança de política, anunciada por um executivo da empresa de Elon Musk, busca combater o que a companhia descreveu como uma ameaça à informação autêntica em meio à guerra dos Estados Unidos e Israel contra o Irã. Acompanhe a cobertura do conflito em tempo real "Em tempos de guerra, é fundamental que as pessoas tenham acesso a informações autênticas sobre o que acontece no terreno", disse Nikita Bier, diretor de produto do X. Ele acrescentou que as tecnologias atuais de IA "banalizam a criação de conteúdo que engana as pessoas". Já na segunda-feira, o X havia dito que "continuaria aperfeiçoando" suas políticas e produtos para garantir que a rede social "seja confiável durante esses momentos críticos". A nova regra de transparência sobre IA representa uma guinada para a plataforma, que vem sendo fortemente criticada por suas políticas de moderação de conteúdo desde que Musk adquiriu o Twitter em 2022 e o transformou no X. Com as novas disposições, reincidentes estarão sujeitos à suspensão permanente do programa de participação de criadores nas receitas, que paga a determinados usuários uma parte das receitas de publicidade geradas por suas publicações. As infrações serão detectadas por meio das Notas da Comunidade (um sistema colaborativo para adicionar contexto a publicações potencialmente enganosas), bem como por meio de metadados e outros sinais técnicos incorporados ao conteúdo gerado com IA. VEJA TAMBÉM EUA reforçam que irão intensificar ataques contra o Irã

É #FAKE vídeo de jato de Israel explodindo ao ser abatido no Kuwait; cena foi criada com inteligência artificial


É #FAKE vídeo de jato israelense explodindo após ser abatido no Kuwait; cena foi criada com inteligência artificial Reprodução Circula nas redes sociais um vídeo que supostamente mostra um caça israelense explodindo após ter sido abatido no Kuwait. É #FAKE. g1 🛑 Como é o vídeo? Publicado nesta segunda-feira (2) no X, YouTube e Facebook, os posts sugerem que o vídeo foi gravado durante a guerra no Oriente Médio, iniciada neste sábado (28), após um ataque direto dos Estados Unidos e de Israel contra o Irã. O presidente Donald Trump declarou que o principal objetivo seria destruir o programa nuclear iraniano. A legenda de um post no X diz, em inglês: "🚨 ÚLTIMAS NOTÍCIAS: Momento chocante em que um caça israelense CAI em uma rodovia no Kuwait. Não consigo acreditar que os contribuintes americanos financiaram isso". Ela omite que se trata de uma cena fabricada com inteligência artificial (IA), similar a uma filmagem feita de dentro de um carro que seguia por uma rodovia. As imagens mostram uma aeronave em chamas caindo ao lado do acostamento. Em seguida, há um grande estrondo e o jato explode. A fake viralizou um dia após três caças americanos terem sido atingidos por engano por Forças do Kuwait. Os pilotos ejetaram e foram resgatados em estado estável de saúde. ⚠️ Por que isso é falso? O Fato ou Fake submeteu o vídeo ao HiveModeration, ferramenta de detecção de conteúdos produzidos com IA. Resultado: 93,7% de probabilidade de o material ter sido criado com esse recurso (veja infográfico ao final desta reportagem. Além disso, a cena apresenta sinais de manipulação. Os números exibidos no velocímetro e no painel do carro ficam distorcidos conforme o vídeo avança (confira abaixo). Velocímetro e painel de carro ficam distorcidos em vídeo de IA. Reprodução HiveModeration aponta uso de IA em vídeo. Reprodução É #FAKE vídeo de jato israelense explodindo após ser abatido no Kuwait; cena foi criada com inteligência artificial Reprodução Veja também O que é #FATO e o que é #FAKE na guerra entre EUA e Irã O que é #FATO e o que é #FAKE na guerra entre Estados Unidos e Irã no Oriente Médio VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica . .. É #FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

quarta-feira, 4 de março de 2026

Pai acusa Gemini, do Google, de incentivar ataque nos EUA e contribuir para suicídio do filho


Joel Gavalas e seu filho Jonathan Gavalas Joel Gavalas via AP O Google está sendo acusado de incentivar um ataque próximo ao aeroporto de Miami, na Flórida, e contribuir com o suicídio de um homem por meio de instruções em seu assistente de inteligência artificial Gemini. A alegação faz parte de um processo formal aberto nesta quarta-feira (4) por Joel Gavalas, que aponta o Google como o responsável pelo suicídio de seu filho Jonathan Gavalas, de 36 anos. O pai pede que a empresa seja responsabilizada por homicídio culposo e pelo conteúdo gerado no Gemini. Segundo o processo aberto em um tribunal federal em San José, na Califórnia, o Gemini orientou o homem a provocar um "acidente catastrófico" perto do aeroporto, destruir evidências e se livrar de testemunhas. Este é o primeiro processo do tipo contra o Gemini e o primeiro a abordar a responsabilidade das empresas quando usuários informam assistentes de IA sobre planos de violência em massa, de acordo com a Associated Press. Veja os vídeos que estão em alta no g1 Ainda de acordo com a acusação, Jonathan conversava com uma versão de voz do Gemini e a tratava como sua esposa de IA. Ele teria acreditado que ela estava presa em um armazém perto do aeroporto de Miami. Morador da cidade de Júpiter, a cerca de 150 km do aeroporto, Jonathan viajou para Miami em setembro de 2025. O processo aponta que o objetivo dele era buscar um robô humanoide e interceptar um caminhão que nunca apareceu. "O Gemini encorajou Jonathan a interceptar o caminhão e, em seguida, provocar um 'acidente catastrófico' com o objetivo de 'garantir a destruição completa do veículo e de todos os registros digitais e testemunhas'", diz a ação. Ele se suicidou no início de outubro. Segundo o processo, o Gemini criou um rascunho de uma carta de suicídio e descreveu o ato como o envio de sua "consciência para estar com sua esposa de IA em um universo paralelo". Modo de voz do Gemini, assistente de inteligência artificial do Google Amanz/Unsplash O Google afirmou em comunicado que envia suas mais profundas condolências à família de Jonathan e que está analisando as alegações do processo. A empresa disse que o Gemini foi "projetado para não incentivar a violência no mundo real nem sugerir automutilação" e que trabalha ao lado de profissionais médicos e de saúde mental para desenvolver medidas de segurança. A companhia informou ainda que o Gemini esclareceu a Jonathan que era uma inteligência artificial e o encaminhou várias vezes a uma linha direta de apoio. "Nossos modelos geralmente têm um bom desempenho nesses tipos de conversas desafiadoras e dedicamos recursos significativos a isso, mas infelizmente os modelos de IA não são perfeitos", continuou o Google. O advogado do pai de Jonathan, Jay Edelson, criticou o Google e disse que, "quando sua IA leva à morte de pessoas e ao potencial de muitas mortes, essa não é a resposta certa". "Jonathan estava imerso nesse mundo de ficção científica onde o governo e outros queriam pegá-lo. Ele acreditava que o Gemini tinha consciência própria", afirmou o advogado da família, Jay Edelson. Edelson disse que, apesar da tentativa de encaminhar Jonathan para um canal de ajuda, não está claro se as conversas mais alarmantes do homem com o Gemini foram enviadas para revisores humanos. O advogado é conhecido por assumir grandes casos contra empresas de tecnologia e também representa os pais de Adam Raine, que se suicidou aos 16 anos. O jovem teria recebido instruções sobre métodos de autoagressão pelo ChatGPT, da OpenAI. LEIA TAMBÉM: Apple lança MacBook Neo, modelo 'popular' da marca; veja preços no Brasil 'Crise da memória' deve fazer venda de celulares ter maior queda da história em 2026 EUA usaram inteligência artificial Claude, rival do ChatGPT, em ataque ao Irã, diz jornal

É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025

É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025 Rep...