sexta-feira, 8 de maio de 2026

É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; áudio foi manipulado com IA


É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; material foi manipulado com IA Reprodução Circula nas redes sociais um vídeo que supostamente mostra o senador e pré-candidato à Presidência Flávio Bolsonaro (PL-RJ) dizendo que vai criar um "auxílio sacolão de osso". É #FAKE. Selo Fake (Horizontal) g1 🛑 Como é o vídeo? O conteúdo circula desde 15 de abril no Instagram e no TikTok. Uma caixa de texto que acompanha o vídeo diz: "Irei criar o auxílio 'sacolão de osso". A gravação mostra o senador dizendo diretamente à câmera do celular: "Uma coisa, eu prometo a todos vocês, no meu governo eu irei criar o auxílio sacolão de osso. Ninguém vai ficar de fora. Promessa é dívida". O vídeo usado nos posts é uma manipulação com inteligência artificial (IA) feita a partir de um registro verdadeiro do senador, publicado em suas redes sociais em 21 de novembro do ano passado (leia mais abaixo). Na seção de comentários de uma publicação do TikTok com mais de 1,9 milhão de visualizações, usuários questionaram "gente, isso é IA? me responda por favor!" e "isso é verdade ou é montagem?", enquanto outros apontaram que o vídeo era falso. Em outro vídeo compartilhado no TikTok, também produzido com IA, o senador aparece distribuindo sacos com ossos para moradores. O conteúdo usa o mesmo áudio falso e leva uma caixa de texto que diz: "Flávio Bolsonaro é a volta da fila do osso". Em 2021, um flagrante em Cuiabá (MT) mostrou uma fila enorme de moradores na porta de um açougue para receber doação de ossos. ⚠️ Por que é #FAKE? O Fato ou Fake submeteu o material a duas ferramentas de detecção de conteúdos gerados por IA. Resultado: ambas apontaram que o áudio foi alterado com esse recurso (veja infográficos no fim da reportagem). HiveModeration - classificou que há 77,3% de chances de o áudio ter sido gerado com IA. Hiya Invid - a análise indicou que há 98% de probabilidade de haver clonagem de voz com inteligência artificial em todo o arquivo. "Hiya.com considera este fragmento de áudio como muito provavelmente gerado por IA". O Fato ou Fake identificou que o material falso é uma manipulação de um trecho de 11 segundos de um vídeo verdadeiro de Flávio Bolsonaro. O conteúdo original, além de não ter qualquer menção ao suposto "auxílio", foi compartilhado em 21 de novembro de 2025 nas redes sociais do senador, cerca de um mês antes do ex-presidente Jair Bolsonaro confirmar a pré-candidatura do filho à presidência. No vídeo, Flávio Bolsonaro convocou apoiadores para uma vigília próxima à casa do ex-presidente, em Brasília, por volta das 19h. Na ocasião, Bolsonaro estava em prisão domiciliar, sob monitoramento, restrições e uso obrigatório de tornozeleira eletrônica. Na mesma data, por volta das 23h, a Polícia Federal pediu a prisão preventiva de Bolsonaro com base no vídeo gravado pelo senador, apontando risco de fuga. Em paralelo, na madrugada do dia seguinte, Bolsonaro tentou violar a tornozeleira eletrônica com um ferro de soldar. O ministro Alexandre de Moraes determinou a prisão preventiva de Jair Bolsonaro por ver risco de fuga, citando a vigília convocada por Flávio e a tentativa de violação da tornozeleira. Na manhã do mesmo dia, o ex-presidente foi preso pela PF e levado à Superintendência da PF. Para localizar a gravação verdadeira, o Fato ou Fake fragmentou o conteúdo falso em frames (fotos estáticas) na ferramenta Invid. Depois, fez uma busca reversa no Google Lens, processo que rastreia imagens similares e identifica os resultados mais antigos do conteúdo disponíveis na internet. O resultado exibiu o post de 21 de novembro do X do senador. Procurada pelo Fato ou Fake, a assessoria de imprensa do senador afirmou que o conteúdo é "uma manipulação absurda, feita para enganar a população". Leia abaixo a nota completa: "É evidentemente falso o vídeo que circula nas redes sociais atribuindo ao senador Flávio Bolsonaro declarações sobre "auxílio sacolão do osso". Trata-se de uma manipulação absurda, feita para enganar a população. O compromisso do senador Flávio Bolsonaro, se eleito, é com a redução dos gastos públicos e do esbanjamento de dinheiro, que têm ampliado o endividamento do país e, consequentemente, pressionado a inflação, encarecido os alimentos e tirado comida do prato dos brasileiros". Hiya/InVid aponta que trecho do áudio é muito provavelmente criação de IA. Reprodução HiveModeration aponta uso de IA em vídeo. Reprodução É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; material foi manipulado com IA Reprodução Veja também É #FATO: Vídeo mostra canguru recebendo carinho em zoológico na China É #FATO: Vídeo mostra canguru recebendo carinho de visitantes em zoológico na China VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica . .. É #FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito) GloboPop: clique para ver vídeos do palco de Fato ou Fake

Google terá que pagar mais de R$ 245 milhões por discriminação racial a funcionários


Google Arnd Wiegmann/Reuterus O Google terá que pagar US$ 50 milhões (cerca de R$ 245 milhões, na cotação atual) a funcionários negros que acusaram a empresa de manter desigualdades raciais sistêmicas em contratações, salários e promoções em uma ação judicial apresentada em 2022. 📱Baixe o app do g1 para ver notícias em tempo real e de graça O acordo para o pagamento foi fechado nesta quinta-feira (8). April Curley, ex-funcionária do Google, processou a gigante da tecnologia por discriminação racial, alegando que a empresa adotava um “padrão recorrente” de tratamento injusto contra trabalhadores negros. Segundo a ação, o Google direcionava esses funcionários para cargos de menor nível e pior remuneração, além de submetê-los a um ambiente de trabalho hostil caso denunciassem a situação. Outros ex-funcionários também aderiram ao processo, que posteriormente ganhou status de ação coletiva. “Este caso é sobre responsabilização, pura e simples”, afirmou o advogado de direitos civis Ben Crump, representante dos autores da ação, em comunicado. “Por muito tempo, funcionários negros da indústria de tecnologia enfrentaram barreiras que limitam oportunidades. Este acordo representa um passo importante para responsabilizar uma das empresas mais poderosas do mundo e deixar claro que práticas discriminatórias não podem e não serão toleradas.” Procurado pela AP, o Google não respondeu até a publicação desta matéria. Vídeos em alta no g1 A ação reforça anos de reclamações de funcionários negros dentro da empresa. Entre os casos mais conhecidos está o da pesquisadora de inteligência artificial Timnit Gebru, que afirmou ter sido afastada do Google em 2020 após um conflito envolvendo um estudo sobre os riscos sociais de um ramo emergente da inteligência artificial. O processo de 2022 alegava ainda que o Google, sediado em Mountain View, avaliava candidatos negros com base em “estereótipos raciais prejudiciais”. Segundo a ação, recrutadores consideravam candidatos negros como “não suficientemente ‘Googly’” — termo usado internamente pela empresa e que, segundo os autores, funcionava como um “código” para discriminação racial. Além disso, os entrevistadores teriam intimidado e desestabilizado candidatos negros durante processos seletivos e contratado esses profissionais para cargos com salários menores, posições inferiores e menos possibilidade de crescimento, com base em estereótipos raciais. O acordo, que não representa admissão de culpa por parte do Google, também prevê medidas de análise de equidade salarial, maior transparência nos pagamentos e limites para a obrigatoriedade de arbitragem em disputas trabalhistas pelo menos até agosto de 2026, segundo Ben Crump.

Influenciadora em ética de IA tem redes sociais derrubadas


Catharina Doria viralizou com vídeos em que fala sobre cuidados com a inteligência artificial Arquivo Pessoal via BBC Catharina Doria construiu uma audiência de quase 600 mil seguidores no Instagram e em outras redes sociais ao explicar, em vídeos curtos, como diferenciar uma imagem real de uma criada por inteligência artificial. Ensinou também por que pais devem evitar postar fotos dos filhos em redes sociais e alertou sobre outras questões envolvendo a tecnologia (leia aqui entrevista da BBC News Brasil com a influenciadora). 🗒️Tem alguma sugestão de reportagem? Mande para o g1 E pode ter sido justamente o tema central de seu trabalho — os limites da decisão automatizada — que a levou a perder duas de suas contas na rede social nas últimas semanas, sob a justificativa de violar diretrizes da Meta, empresa responsável pela rede social. "E parece tragicômico que eu sou especialista em IA ética e uma IA possa destruir a minha vida. Influencer de IA ética é banida por IA", disse à BBC News Brasil. No fim de março, Catharina adotou Miss Petunia, uma cadela resgatada de maus-tratos, e, a pedido dos seguidores, criou um perfil dedicado ao animal: @misspetuniathechi. Segundo ela, a conta foi suspensa no mesmo instante em que foi criada, antes de qualquer publicação, foto de perfil ou biografia. Veja os vídeos em alta no g1 Vídeos em alta no g1 "No momento em que eu cliquei para criar a conta, eu recebi uma notificação de que a minha conta tinha sido banida por ir contra as diretrizes da comunidade", relata. "Mas não deu nem tempo de postar uma foto, nem nada. É como se a conta tivesse nascido morta." Ela encaminhou à reportagem da BBC Brasil a cópia de um e-mail que contou ter recebido do Instagram, que diz que a conta foi suspensa por violar as "Community Standards on account integrity" ("Diretrizes da comunidade sobre integridade de conta"). Catharina diz ter aberto recurso e enviado um documento de identidade, como solicitado pela plataforma. Mas conta que recebeu nova mensagem do Instagram dizendo que o documento havia sido recusado, sem detalhar o motivo, e pedindo o reenvio. Em seguida, a conta foi desativada. Em maio, o Instagram informou a ela que uma segunda conta sua havia sido suspensa: a do @theaisurvivalclub, comunidade que ela mantém para discutir letramento crítico em inteligência artificial. A justificativa seria a de que a conta estaria associada a outra que infringiu regras da empresa. "Trabalho com isso, é minha fonte de renda, é minha fonte de credibilidade. Saber que uma inteligência artificial pode acabar com o meu salário, acabar com o meu ganha-pão, acabar com tudo, é assustador." A conta principal, @cahdoria, segue ativa, mas ela teme que também seja derrubada pelas regras que contou ter recebido na resposta da Meta. Procurada, a Meta disse que não iria se manifestar. A empresa não respondeu se houve revisão humana da decisão. 'O algoritmo erra em escala' "A nossa expectativa é que, ao menos, a gente saiba o motivo (da suspensão) e que, sabendo, a gente tenha o direito de questionar", diz o advogado e pesquisador de Harvard Caio Vieira Machado. Para ele, o problema central é a opacidade das decisões. "O algoritmo deles pode ter detectado algo estranho e, a partir disso, ter sinalizado que a conta, de repente, está espalhando um conteúdo de nudez, espalhando desinformação, espalhando alguma informação política que não interessa à plataforma, alguma visão mais delicada ou polarizada, por exemplo", afirma. "Ou o contrário: às vezes alguma coisa que esteja gerando polêmica pode ser amplificada pelo algoritmo." Segundo o pesquisador, o primeiro problema é que o usuário "está recebendo um serviço que é inconstante" e "não é informado de como isso funciona com relação à transparência dos algoritmos. A gente sequer tem uma condição boa da qualidade do algoritmo". Como esses sistemas operam em escala global, diz, eventuais erros se multiplicam: "Sabendo que essas tecnologias erram, e erram em escala — pensa quantos bilhões de publicações acontecem todos os dias —, 1% se for o erro, é uma escala de milhões." Por isso, afirma, a saída esperada é a revisão humana. "Em muitos casos pode ser que o modelo simplesmente tenha interpretado errado. Falsos positivos." Ele cita um artigo da Lei Geral de Proteção de Dados (LGPD), que prevê que qualquer cidadão pode pedir que decisões automatizadas que afetem seus interesses sejam revistas por uma pessoa. Na prática, porém, esses revisores são "exércitos de pessoas contratadas por essas empresas, pagas um valor irrisório, com publicações aos milhares por dia para avaliar", afirma o advogado. "Eles têm poucos segundos para avaliar o que está lá."

Privacidade do Instagram desligada: o que isso significa para as suas DMs


A partir desta sexta-feira (8), o Instagram poderá acessar todo o conteúdo das mensagens diretas, incluindo imagens, vídeos e mensagens de voz Getty Images via BBC A rede social Instagram desativou o recurso que permitia aos usuários enviar mensagens com alto nível de privacidade. A partir desta sexta-feira (8), o Instagram poderá acessar todo o conteúdo das mensagens diretas, incluindo imagens, vídeos e mensagens de voz. A remoção da chamada criptografia de ponta a ponta (E2EE, na sigla em inglês), em que somente o remetente e o destinatário podem ver o conteúdo, representa uma grande guinada da Meta, empresa responsável pelo Instagram. 🗒️Tem alguma sugestão de reportagem? Mande para o g1 A criptografia de ponta a ponta é considerada por especialistas a forma mais segura de troca de mensagens na internet. Mas esse tipo de criptografia enfrenta há muito tempo a oposição de grupos que afirmam que ela facilita a disseminação de conteúdo considerado extremo (incluindo crimes) sem que autoridades consigam agir. Por isso, a decisão da Meta de remover esse tipo de criptografia de ponta a ponta do Instagram foi comemorada por grupos como organizações de proteção à infância, mas condenada por defensores da privacidade. A Sociedade Nacional de Proteção de Crianças Contra Crueldade (NSPCC, na sigla em inglês), uma das principais organizações sem fins lucrativos do Reino Unido, alerta há anos que a criptografia de ponta a ponta poderia expor crianças a riscos. "Estamos realmente satisfeitos", disse Rani Govender, do NSPCC, acrescentando que a criptografia de ponta a ponta "pode permitir que autores de crimes deixem de ser detectados, o que faz com que o aliciamento e o abuso infantil passem despercebidos". Por outro lado, defensores da privacidade afirmam que a medida representa um retrocesso. Maya Thomas, da Big Brother Watch, ONG britânica de defesa da privacidade e dos direitos civis, disse estar "decepcionada" com a decisão e afirmou que a criptografia de ponta a ponta era "uma das principais formas de crianças protegerem seus dados na internet". Thomas acrescenta haver preocupação de que a Meta esteja cedendo à pressão de governos. Antes, a Meta defendia a criptografia de ponta a ponta como o modelo mais seguro de privacidade para os usuários. Em 2019, a Meta prometeu implementar a tecnologia nas plataformas de mensagens do Facebook e do Instagram, afirmando que "o futuro é privado". A empresa concluiu a implementação dessa criptografia no Facebook Messenger em 2023 e depois tornou o recurso opcional no Instagram, com planos de torná-lo padrão. Mas, após sete anos, a Meta desistiu de ampliar o recurso no Instagram, que agora oferece apenas criptografia padrão. Na criptografia padrão, que substituiu a criptografia de ponta a ponta, um provedor de serviços de internet pode acessar conteúdo privado, se necessário. Esse é o sistema mais comum nos principais serviços online, como o Gmail, do Google. Por que a Meta desativou a criptografia de ponta a ponta? Desde 2019, a Meta defendia seus planos de ampliar a criptografia de ponta a ponta, enquanto tentava superar os desafios técnicos para levar a tecnologia ao Facebook e ao Instagram. A empresa não anunciou publicamente a decisão de abandonar a implementação da ferramenta no Instagram. Em vez disso, atualizou discretamente os termos e condições do aplicativo em março. "As mensagens com criptografia de ponta a ponta no Instagram deixarão de ser compatíveis após 8 de maio de 2026. Se você tiver conversas afetadas por essa mudança, verá instruções sobre como baixar mídias ou mensagens que deseje guardar", informou a empresa. A Meta disse a jornalistas que a decisão foi tomada porque poucos usuários aderiram ao recurso. Mas especialistas afirmam que as ferramentas opcionais costumam ter baixa adesão, já que exigir que usuários ativem um recurso manualmente cria etapas extras no uso da plataforma. Alguns analistas, entre eles a especialista em cibersegurança Victoria Baines, acreditam que a decisão reflete uma mudança na postura da Meta em relação à privacidade. "As plataformas de redes sociais monetizam nossas comunicações, publicações, curtidas e mensagens, para direcionar publicidade segmentada", afirmou. "E, cada vez mais, empresas como a Meta estão se concentrando no treinamento de modelos de inteligência artificial [IA], para os quais os dados de mensagens podem ser extremamente valiosos. Acho que a decisão é mais complexa." O Instagram já afirmou anteriormente que mensagens diretas não são usadas para treinar sistemas de IA. A empresa se recusou a comentar mais detalhadamente a decisão de recuar na política de privacidade, e o chefe do Instagram, Adam Mosseri, recusou pedidos de entrevista. No mês passado, a Meta informou aos funcionários que cliques e atividades em dispositivos de trabalho passariam a ser coletados como dados de treinamento para os modelos de IA da empresa. Grupos como a ONG Big Brother Watch afirmam que a decisão da Meta pode influenciar toda a indústria de redes sociais. Até recentemente, a expansão da criptografia de ponta a ponta era vista como a direção natural do setor. Esse tipo de criptografia é padrão no Signal, no WhatsApp, no Facebook Messenger, no iMessage, da Apple, e no Google Messages O Telegram oferece o recurso como opcional, mas não de forma padrão O X, antigo Twitter, oferece um sistema semelhante para mensagens diretas, embora críticos afirmam que ele não atende aos padrões de segurança da indústria O Snapchat usa a tecnologia para fotos e vídeos enviados por mensagens diretas e já afirmou que pretende expandi-la para mensagens de texto. O Discord planeja tornar chamadas de voz e vídeo protegidas por criptografia de ponta a ponta de forma padrão. O TikTok disse à BBC em março que não tinha planos de implementar a tecnologia em mensagens diretas. Analistas, entre eles a especialista em cibersegurança Baines, acreditam que essas decisões podem desacelerar a disseminação da criptografia de ponta a ponta, fazendo com que ela fique restrita, no futuro, principalmente a aplicativos dedicados a mensagens.

Google Chrome pode adicionar uma IA no seu computador de forma discreta; saiba como impedir


Google Chrome Unsplash/Zulfugar Karimov Uma ação pouco conhecida do Google Chrome tem repercutido na internet nos últimos dias: o navegador pode baixar e instalar uma IA no computador do usuário sem pedir autorização explícita para isso. O recurso pode ocupar cerca de 4 GB de armazenamento (saiba como desativar). A descoberta foi feita pelo cientista da computação e advogado sueco conhecido como That Privacy Guy. Em uma publicação em seu blog, ele detalhou como o Google estaria realizando a instalação automática, segundo o site especializado em tecnologia CNET. ➡️ Procurado pelo g1, o Google afirmou que a IA instalada, chamada Gemini Nano, é usada em recursos de segurança do Chrome, como a detecção de golpes. A empresa também disse que a ferramenta é desinstalada automaticamente caso o computador apresente "escassez de recursos". Vídeos em alta no g1 Segundo That Privacy Guy, o download do Gemini Nano acontece quando os recursos de IA do Google Chrome estão ativados. De acordo com ele, essas funções já vêm ligadas por padrão nas versões mais recentes do navegador. Assim, computadores compatíveis com a tecnologia podem receber a IA automaticamente. Ainda de acordo com That Privacy Guy, o Gemini Nano é baixado em computadores com a versão 147 do Google Chrome. Para verificar se essa é a versão instalada no seu dispositivo, basta acessar as configurações do navegador e clicar em "Sobre o Chrome". Como desativar Em nota enviada ao g1, o Google indicou uma página da sua central de ajuda com orientações para desativar o Gemini Nano no computador. "Uma vez desabilitado, o modelo não realizará novos downloads ou atualizações", disse. Veja o passo a passo: Abra o Google Chrome no computador; No canto superior direito, clique no ícone de três pontos e vá em "Configurações"; Depois, acesse a opção "Sistema"; Por fim, desative a função "IA do dispositivo" ("On-device AI"). Por que o Google diz que isso é necessário? Em sua central de ajuda, o Google afirma que os modelos de IA generativa são usados em recursos do Chrome, como ajuda para escrever ou reformular textos, alertas de golpes, resumos de páginas da web e organização de abas. Segundo a empresa, para que essas funções funcionem diretamente no computador do usuário, os modelos de IA precisam ser baixados e armazenados no dispositivo. O que diz o Google "Oferecemos o Gemini Nano para o Chrome desde 2024 como um modelo leve de processamento no dispositivo (on-device). Ele viabiliza recursos de segurança essenciais, como detecção de golpes e APIs para desenvolvedores, sem o envio de dados para a nuvem. Embora o funcionamento exija espaço de armazenamento local no desktop, o modelo será desinstalado automaticamente caso o dispositivo apresente escassez de recursos. Em fevereiro, iniciamos o rollout da funcionalidade que permite aos usuários desativar e remover o modelo com facilidade diretamente nas configurações do Chrome. Uma vez desabilitado, o modelo não realizará novos downloads ou atualizações. Mais detalhes podem ser encontrados em nosso artigo na central de ajuda.” Governo eleva classificação indicativa do YouTube e cita 'Novela das frutas' Ex-chefe do WhatsApp no Brasil cria ONG para denúncias contra big techs Entenda embate entre governo dos EUA e Claude, rival do ChatGPT

quinta-feira, 7 de maio de 2026

Plataforma educacional usada em Harvard e Johns Hopkins sofre ataque hacker


Harvard tem 24.596 alunos matriculados neste ano e 20.667 empregados em todos os departamentos, incluindo os docentes Getty Images/BBC Um ataque cibernético derrubou nesta quinta-feira (7) a plataforma Canvas, usada por milhares de escolas e universidades para gerenciar notas, materiais de aula, tarefas e vídeos, causando caos entre estudantes em meio ao período de provas finais nos Estados Unidos. Segundo Luke Connolly, analista da empresa de cibersegurança Emsisoft, o grupo hacker ShinyHunters reivindicou a autoria da invasão. A Instructure, empresa responsável pelo Canvas, não comentou o caso nem informou se o sistema foi retirado do ar preventivamente ou se foi derrubado pelos hackers. De acordo com Connolly, o grupo afirmou ter afetado cerca de 9 mil instituições de ensino em todo o mundo e acessado bilhões de mensagens privadas e outros registros. Nas redes sociais, estudantes relataram dificuldades para acessar materiais de estudo para exames finais. Algumas universidades começaram a adiar provas e emitir alertas sobre possíveis tentativas de phishing. 🔎 “Phishing” é um tipo de golpe digital em que criminosos tentam enganar pessoas para roubar senhas, dados bancários ou outras informações pessoais. Vídeos em alta no g1 A Universidade do Texas em San Antonio anunciou o adiamento de provas marcadas para sexta-feira. Já instituições como a Universidade da Pensilvânia, a Universidade Harvard e a Universidade Johns Hopkins também registraram impactos. Especialistas afirmam que escolas e universidades se tornaram alvos frequentes de hackers por concentrarem grandes volumes de dados digitalizados. O ataque ao Canvas foi comparado a uma invasão recente sofrida pela plataforma educacional PowerSchool.

Instagram confirma remoção de contas após usuários relatarem perda de seguidores


Ícone do Instagram em um smartphone. Dado Ruvic/Reuters/Ilustração Usuários do Instagram relataram perda de seguidores desde quarta-feira (6). Nesta quinta (7), a Meta, dona da rede social, confirmou que desativou contas inativas como parte de um "processo rotineiro". No X, são vários relatos de pessoas que viram o número de "seguindo" cair consideravelmente. "Instagram bugou de novo? Acordei com menos 200 seguidores 👀", escreveu um usuário. "Perdi 400 seguidores do nada", disse outra. A empresa não informou o motivo da desativação dessas contas. Plataformas digitais, porém, costumam remover perfis inativos periodicamente. O WhatsApp, por exemplo, afirma que apaga contas após 120 dias sem uso. O que diz o Instagram “Como parte do nosso processo rotineiro de remoção de contas inativas, algumas contas do Instagram podem ter notado atualizações na contagem de seguidores. Os seguidores ativos não foram afetados, e qualquer conta suspensa que tenha sido restaurada será incluída novamente na contagem após a verificação.”

É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; áudio foi manipulado com IA

É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; material foi manipulado com IA Reprodução...