domingo, 10 de maio de 2026

De retoques a imagens malucas: saiba como usar a edição de fotos com inteligência artificial no celular


Foto editada com inteligência artificial mostra gato sobre uma roda gigante Henrique Martin/g1 com recursos de IA É fácil perceber que o gato gigante da imagem acima não existe: ele foi criado por inteligência artificial com comandos simples no celular. E, bem, gatinhos não atravessam rodas gigantes, né? IA parece que é algo imprescindível, que vai mudar a vida de quem tiver aquele aparelho de última geração. Na prática, está mais para esquecível. Pelo menos, editar fotos no smartphone se tornou um dos principais usos da inteligência artificial, presente na maioria dos Androids e iPhones mais recentes. As funções ficam disponíveis na galeria de fotos, na área de edição. O Guia de Compras testou as ferramentas de edição de IA no iPhone 17 e no Galaxy S26 Ultra para conferir se há novidades nesses recursos, usando fotos feitas com diversos aparelhos. 📱 Quer comprar melhor? Receba testes e dicas do Guia de Compras no seu e-mail. Vale lembrar que imagens muito alteradas por IA recebem uma marca d’água, como a aplicada pela Samsung. Alerta em imagem do Galaxy S26 Ultra que a imagem foi feita por IA Reprodução Remover pessoas e objetos das fotos é uma função bastante útil, pois não altera tanto a imagem a ponto de parecer muito artificial. Em uma foto na escadaria do Museu do Ipiranga, em São Paulo, tanto a Apple Intelligence quanto a Galaxy AI — nomes oficiais das IAs das marcas — apresentaram resultados semelhantes. Edição de fotos com remoção de pessoas: original (esquerda), no iPhone 17 (centro) e Galaxy S26 Ultra (direita) Henrique Martin/g1 com recursos de IA À primeira vista, ambas limparam bem a foto. No iPhone, que seleciona automaticamente as pessoas para remoção, alguns resíduos ficaram no meio da escadaria. No Galaxy, o detalhe da mureta à esquerda ficou com melhor definição, além de um ajuste superior de sombras e contraste. Na foto do gato na pia do banheiro, a pessoa foi removida com sucesso nos dois celulares. Os itens da bancada também sumiram, mas deixaram marcas. A imagem do iPhone ficou com círculos avermelhados estranhos. Edição de fotos com remoção de objetos: original (esquerda), no iPhone 17 (centro) e Galaxy S26 Ultra (direita) Henrique Martin/g1 com recursos de IA Em uma foto num ônibus de turismo, as IAs mostraram interpretações diferentes. No iPhone, as pessoas à frente desapareceram e surgiu uma paisagem genérica, que até pode lembrar um painel de carro. No Galaxy, o cabelo de um passageiro virou base para uma floresta no outono. Edição de fotos com remoção de pessoas: original (esquerda), no iPhone 17 (centro) e Galaxy S26 Ultra (direita) Henrique Martin/g1 com recursos de IA À noite, as ferramentas também funcionam, mas com resultados variados. Edição de fotos com remoção de objetos: original (esquerda), no iPhone 17 (centro) e Galaxy S26 Ultra (direita Henrique Martin/g1 com recursos de IA A edição nos iPhones — a Apple Intelligence está disponível a partir do iPhone 15 Pro — se limita à limpeza das fotos. Nos aparelhos da Samsung com Galaxy AI, é possível criar intervenções maiores, usando prompts para modificar completamente as imagens. Cena noturna (original) e reimaginada com IA generativa no Galaxy S26 Ultra Initial plugin text Entre as possibilidades estão transformar a noite em dia ou criar cenas inusitadas, como um gato artificial atacando uma roda-gigante à noite. No fim, são funções que complementam o uso do celular e mostram como a inteligência artificial está cada vez mais acessível para quem gosta de editar fotos. Foto original (à esquerda) e edição com IA generativa no Galaxy S26 Ultra Henrique Martin/g1 com recursos de IA Veja a seguir alguns celulares da Apple e da Samsung compatíveis com inteligência artificial. Os preços, consultados no início de maio nas lojas da internet, iam de R$ 5.700 a R$ 13.000. iPhone 17 iPhone 17e Galaxy S26 Galaxy S26 Ultra Esta reportagem foi produzida com total independência editorial por nosso time de jornalistas e colaboradores especializados. Caso o leitor opte por adquirir algum produto a partir de links disponibilizados, a Globo poderá auferir receita por meio de parcerias comerciais. Esclarecemos que a Globo não possui qualquer controle ou responsabilidade acerca da eventual experiência de compra, mesmo que a partir dos links disponibilizados. Questionamentos ou reclamações em relação ao produto adquirido e/ou processo de compra, pagamento e entrega deverão ser direcionados diretamente ao lojista responsável.

Dua Lipa processa Samsung por uso indevido de imagem para vender televisões e pede US$ 15 milhões


Suposta campanha da Samsung com foto de Dua Lipa. Reprodução / Redes Sociais A cantora britânica Dua Lipa entrou com uma ação judicial contra a Samsung Electronics pedindo ao menos US$ 15 milhões em indenização por suposto uso indevido de sua imagem para promover televisores da marca. Segundo o processo, protocolado na sexta-feira (8) em um tribunal federal da Califórnia, a empresa sul-coreana teria estampado uma foto da artista em caixas de TVs vendidas no varejo sem autorização, sugerindo falsamente um endosso da cantora aos produtos. A imagem citada na ação se chama “Dua Lipa - Backstage at Austin City Limits, 2024”, e, segundo os advogados da cantora, todos os direitos da fotografia pertencem à artista. Além de violação de direitos autorais e de marca, a ação acusa a Samsung de infringir direitos de imagem e publicidade. Vídeos em alta no g1 Os advogados anexaram ao processo capturas de publicações em redes sociais nas quais consumidores associavam a presença da cantora ao produto. Em um dos comentários citados, um fã escreveu que compraria a TV “só porque a Dua está nela”. De acordo com o processo, Dua Lipa tomou conhecimento do suposto uso indevido em junho do ano passado e teria solicitado repetidamente que a empresa deixasse de utilizar sua imagem, mas a fabricante teria se recusado. Em nota, um porta-voz da Samsung Electronics afirmou que a companhia não comentará o caso por se tratar de um litígio em andamento. Cantora Dua Lipa em evento beneficente nos EUA. Aude Guerrucci / Reuters

'Pense fora da caixa': como evitar que IA enferruje seu cérebro


Estudos sugerem que pessoas que dependem excessivamente de ferramentas como o ChatGPT podem enfrentar prejuízos em áreas como criatividade, capacidade de atenção, pensamento crítico e memória Getty Images via BBC Anos atrás, eu passei a me obrigar a usar inteligência artificial (IA) o máximo possível. Se pretendia escrever sobre o tema, também precisava usar a tecnologia. Mas uma série de estudos publicados no último ano começaram a me preocupar: será que estou prejudicando o meu cérebro nesse processo? 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 Esses estudos sugerem que pessoas que dependem excessivamente de ferramentas como o ChatGPT podem enfrentar prejuízos em áreas como criatividade, capacidade de atenção, pensamento crítico e memória. Outros levantam a preocupação de que o uso da IA esteja reduzindo o esforço mental necessário para desenvolver pensamento crítico, e de que, como sociedade, possamos passar a produzir menos ideias originais. Ainda assim, essa linha de pesquisa é muito recente, e as respostas continuam incertas. Devemos nos preocupar? "De modo geral, sim", afirma Adam Greene, professor de neurociência e diretor do Laboratório de Cognição Relacional da Universidade Georgetown, nos Estados Unidos. Vídeos em alta no g1 Segundo Greene, o tema envolve muitas nuances, mas a IA tende a assumir tarefas que antes exigiam esforço mental. "Há muitas evidências de que, se você deixa de exercitar determinados tipos de pensamento, sua capacidade de realizar esse tipo de raciocínio tende a se deteriorar." Mesmo para quem não procura usar ferramentas como ChatGPT ou Claude, respostas geradas por IA já aparecem no topo das buscas do Google, enquanto grandes empresas de tecnologia aceleram a integração desses sistemas nos celulares. A tecnologia está cada vez mais difícil de evitar, mas há medidas que podem reduzir os principais riscos. Para Jared Benge, professor e neuropsicólogo clínico da Escola de Medicina Dell, da Universidade do Texas, nos EUA, a questão é mais complexa do que parece. Usar IA não significa, automaticamente, que a tecnologia fará mal. Se a IA aliviar a carga mental e permitir foco em tarefas mais importantes, por exemplo, isso pode até trazer benefícios cognitivos. "Por que imaginar que a IA seria tão diferente de outras tecnologias às quais o cérebro humano já se adaptou?", questiona Benge. "A ferramenta, por si só, não é boa nem ruim." Como ocorre com qualquer tecnologia, os efeitos da IA dependem do modo como ela é usada. Ainda assim, as preocupações são sérias o suficiente para levar usuários a repensar a forma como utilizam essas ferramentas, antes que seja tarde. Com isso em mente, conversei com alguns dos principais especialistas da área para entender como a IA pode ser usada sem prejudicar nossas capacidades mentais. Com o que estamos preocupados? Há cerca de 20 anos, surgiu a ideia de que a dependência excessiva da tecnologia poderia provocar uma espécie de "demência digital", marcada pela deterioração da memória de curto prazo e de outros processos cognitivos. Recentemente, Benge, da Universidade do Texas, participou de uma meta-análise que analisou 57 estudos envolvendo mais de 411 mil adultos. Ao final, os pesquisadores não encontraram evidências de "demência digital". Pelo contrário: o uso de tecnologia parecia reduzir o risco de comprometimento cognitivo. Mas isso não significa que não exista motivo para preocupação. As pesquisas mostram que pessoas que dependem de sistemas de navegação por satélite, como GPS, deixam de formar mapas mentais do ambiente ao redor, e sua memória espacial tende a piorar com o tempo. Algo semelhante ocorreu com os mecanismos de busca, em um fenômeno que ficou conhecido como "efeito Google". Aparentemente, temos menos tendência a memorizar informações encontradas em buscadores porque acessá-las exige pouco esforço. Em outras palavras, o cérebro tende a perder habilidade em tarefas que delegamos a ferramentas externas. E a IA pode ser o instrumento de terceirização cognitiva mais poderoso já criado. A IA pode estar tornando as pessoas menos criativas, menos analíticas e prejudicando a memória, mas especialistas dizem que ainda é possível evitar esses efeitos Getty Images via BBC "O que a IA está fazendo é nos oferecer, pela primeira vez, uma maneira fácil de trocar o processo pelo resultado", afirma Greene, da Universidade de Georgetown. O texto pode ficar melhor escrito. A apresentação pode parecer mais sofisticada. A piada da festa de aposentadoria pode funcionar perfeitamente. Mas o esforço mental, a dificuldade, as tentativas frustradas e o momento em que algo finalmente faz sentido são justamente o que o cérebro precisa. "É como ir à academia e deixar um robô levantar os pesos por você", diz Greene. "Você não ganha nada com isso." Então, como usar IA sem deixar de exercitar o cérebro? Não aceite a resposta da IA sem questionar Um estudo recente mostrou que usuários mais frequentes de IA tiveram desempenho significativamente pior em um teste padrão de pensamento crítico. A explicação seria o hábito de transferir parte do raciocínio para sistemas automatizados, ou robôs. Os pesquisadores também observaram que muitas pessoas passam a confiar mais na IA do que no próprio julgamento, mesmo quando a ferramenta está errada. Pesquisadores da Universidade da Pensilvânia, nos EUA, chamam esse fenômeno de "rendição cognitiva". O problema tende a ser maior quando o usuário conhece pouco o assunto. Um estudo da Microsoft Research concluiu que o risco aumenta justamente em áreas nas quais a pessoa tem menos familiaridade. "Se o usuário não tem conhecimento suficiente para avaliar se a resposta é boa ou não, aí está o perigo", afirma Hank Lee, doutorando da Universidade Carnegie Mellon, nos EUA, e coautor do estudo. Para Lee, a solução começa antes mesmo de abrir o aplicativo. Se você não confia automaticamente na resposta de um desconhecido, também não deveria confiar cegamente na IA. São justamente esses temas que exigem julgamento próprio. Uma alternativa é formular antes uma visão inicial sobre o assunto e usar a IA para testar ou confrontar esse raciocínio, em vez de simplesmente aceitar a resposta da ferramenta. Assim, a IA funciona como um instrumento para colocar o pensamento à prova, e não para substituí-lo. Introduza mais esforço no processo de pesquisa Ao recorrer à IA para buscar informações importantes, especialistas recomendam se envolver ativamente com o conteúdo. Fazer anotações, de preferência à mão, embora digitá-las também ajuda, pode contribuir para a retenção Getty Images via BBC "Quando algo está diante de você, é comum acreditar que a informação já foi armazenada na memória de longo prazo, quando isso nem sempre acontece", afirma Barbara Oakley, professora emérita de engenharia da Universidade de Oakland, nos EUA, que pesquisa o funcionamento do aprendizado no cérebro. Pesquisas iniciais indicam que a IA pode afetar a capacidade de retenção de informações. Um levantamento com 494 estudantes mostrou que usuários mais frequentes do ChatGPT relataram mais episódios de perda de memória. Avaliações feitas pelos próprios participantes não constituem prova científica definitiva, mas outros trabalhos apontam na mesma direção. Um estudo de 2024 ainda não publicado, por exemplo, sugere que resolver pequenos problemas antes de usar um chatbot de IA pode melhorar o aprendizado obtido com a ferramenta. Ao recorrer à IA para buscar informações importantes, especialistas recomendam desacelerar e se envolver mais ativamente com o conteúdo. Fazer anotações, de preferência à mão, embora digitá-las também ajuda, pode contribuir para a retenção. Também é possível pedir à IA que faça perguntas sobre o tema ou crie flashcards (cartões de revisão, em tradução livre). O esforço faz diferença. Pode parecer excessivamente trabalhoso, mas a ideia é justamente introduzir algum grau de dificuldade no processo. Deixe a página em branco por mais tempo A IA é extremamente eficiente para gerar ideias. E esse é justamente o problema. Pesquisas indicam que pessoas que usam IA em tarefas criativas tendem a produzir ideias mais previsíveis e menos originais do que aquelas que não recorrem à tecnologia. Isso pode enfraquecer a sua capacidade criativa. Segundo Greene, da Universidade Georgetown, a criatividade surge quando o cérebro estabelece conexões inesperadas. Quando essa tarefa é delegada à IA, parte desse exercício mental se perde. "Estamos preocupados com a perda desse 'músculo criativo'", afirma Greene. "A IA nos leva, de várias formas, a acreditar que está tornando as pessoas mais criativas." Uma forma de evitar isso é colocar primeiro as próprias ideias no papel, ainda que de maneira incompleta ou confusa. Vale passar mais tempo diante da página em branco e escrever o que vier à mente. A qualidade inicial importa menos do que o processo. O que importa, segundo pesquisadores, é que o cérebro faça suas próprias conexões, recorrendo a experiências, memórias e conhecimentos pessoais para produzir algo singular. É aí que acontece o exercício mental. Só depois disso a IA deveria entrar em cena, para desenvolver, questionar ou aprimorar as ideias já formuladas. Preste atenção Pesquisas sugerem que o excesso de estímulos tecnológicos também está tornando mais difícil manter o foco Getty Images via BBC Se você chegou até aqui no texto, parabéns. Mas se você já começou a perder a atenção, você não está sozinho. Pode ser apenas que este texto esteja entediante. Mas há pesquisas que sugerem que o excesso de estímulos tecnológicos também está tornando mais difícil manter o foco. A IA pode intensificar esse problema: as respostas estão disponíveis instantaneamente, e há inúmeras maneiras de escapar do esforço e do desconforto. No entanto, a lógica é semelhante à das outras recomendações: optar conscientemente pelo caminho mais lento. Não peça ao ChatGPT para resumir aquele artigo longo. Passe algum tempo tentando resolver um problema difícil antes de recorrer a um robô. Permita-se sentir tédio. O desconforto faz parte do processo. É assim que o cérebro aprende a lidar e, eventualmente, a apreciar o esforço mental necessário para um pensamento mais profundo. Cérebros humanos ainda importam Não estou dizendo que as pessoas devem deixar de usar chatbots de IA, como ChatGPT, Claude ou Gemini. Mas tenho tentado usar essas ferramentas de maneira mais consciente, para garantir que eu continue pensando por conta própria. E isso pode nos deixar mais preparados para o futuro. Segundo Greene, da Universidade Georgetown, o cérebro humano funciona de forma muito diferente da IA em aspectos fundamentais: somos capazes de criar conexões pessoais, inesperadas e genuinamente originais, algo que máquinas baseadas em probabilidade não conseguem reproduzir. "A singularidade e a diversidade das ideias humanas serão de grande valor nos próximos anos", afirma Greene. Para ele, a necessidade de "pensar além dos robôs" tende a se tornar uma forma de adaptação social. E, como lembra Benge, da Universidade do Texas, essa não é a primeira vez que a humanidade passa por uma transformação tecnológica desse tipo. "O cérebro humano sempre se adaptou à tecnologia. Nós nos adaptamos o tempo todo. Essa é uma das forças da nossa espécie", afirma. "Perdemos a capacidade de correr maratonas porque existem carros? Não. Isso apenas passou a ser uma atividade que as pessoas escolhem praticar." As ferramentas mudam. Mas, ao que tudo indica, o desejo humano de pensar, criar e compreender o mundo por conta própria é muito mais difícil de automatizar. LEIA TAMBÉM: 6 conselhos de especialistas sobre como falar com a IA para obter as melhores respostas O que está por trás da disputa entre os ex-amigos Elon Musk e Sam Altman, do ChatGPT, nos tribunais dos EUA Você deve confiar em conselhos de saúde de um chatbot de IA?

sexta-feira, 8 de maio de 2026

‘Dark patterns’: como big techs usam truques para manipular usuários e influenciar suas escolhas


Ícones do Facebook, Messenger, Instagram, WhatsApp e X Julian Christ/Unsplash Enquanto usuários, ainda temos controle sobre quais conteúdos nos são apresentados no Facebook ou no Instagram? Ou somos direcionados deliberadamente a algoritmos personalizados para que eles coletem mais dados sobre nós e aumentem o tempo que passamos nessas plataformas? Essas são as questões centrais das investigações mais recentes da autoridade irlandesa de fiscalização de mídia contra a Meta, empresa‑mãe de ambas as redes sociais. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 A autoridade está examinando se os sistemas de recomendação do Facebook e do Instagram violam o Artigo 27 da Lei dos Serviços Digitais da UE (DSA, na sigla em inglês), criada para proteger cidadãos do bloco contra práticas desleais na internet. Segundo a DSA, os usuários devem ter, a qualquer momento, a possibilidade de compreender e modificar os algoritmos de suas redes sociais. Vídeos em alta no g1 Agora, no entanto, o foco é investigar se Meta usa interfaces manipulativas, conhecidas como "dark patterns" (padrões obscuros), para dificultar desnecessariamente essas opções de escolha. Caso seja confirmada uma violação do DSA, podem ser aplicadas multas de até 6% do faturamento anual global. No caso da Meta, isso poderia chegar a 20 bilhões de euros (R$ 116 bilhões). Como funcionam os dark patterns? Dark patterns são truques específicos de design na internet que têm como objetivo levar os usuários a fazer algo que, na verdade, não querem ou que não é de seu interesse. Eles exploram, por exemplo, a comodidade das pessoas, a falta de tempo ou o medo de perder algo. Assim, os usuários são induzidos a realizar compras, contratar assinaturas ou divulgar dados pessoais. No caso atual, a autoridade irlandesa de mídia investiga, por exemplo, se a Meta esconde deliberadamente, em vários submenus, a opção de alternar entre um feed personalizado e um feed puramente cronológico. Também se analisa se a empresa simplesmente redefine essa configuração após o fechamento do aplicativo, para que os usuários, frustrados, acabem concordando com o feed personalizado apenas para não serem mais incomodados. Outros exemplos similares Escritório da Meta em Menlo Park, Califórnia, Estados Unidos REUTERS/Nathan Frandino A Meta está longe de ser a única empresa de internet suspeita de usar esse tipo de prática. Interfaces do gênero existem tanto em redes sociais quanto em lojas virtuais, jogos para celular ou outros aplicativos. E praticamente todos nós já devemos ter nos deparado com um ou outro desses exemplos. Entre os dark patterns mais comuns estão: Confirmshaming: em uma solicitação ao usuário, por exemplo, para autorizar o rastreamento de dados para publicidade personalizada, há duas opções. O botão de consentimento é grande e colorido; o de recusa, pequeno e cinza. Muitas vezes, este último também traz uma rotulagem manipuladora, como "Não, prefiro continuar vendo anúncios irrelevantes", como se a escolha fosse vergonhosa ou inferior. Botões de "não" escondidos: frequentemente existe um botão "sim", enquanto a alternativa leva a "mais opções", obrigando o usuário a se clicar por vários submenus para finalmente selecionar "não". Em alguns casos, opções já vêm previamente marcadas (pre‑ticked boxes), e o usuário precisa desmarcá‑las ativamente. Pressão artificial de tempo: comum em lojas online, com a exibição de cronômetros piscando ou avisos como "Só resta 1 item em estoque!" ou "X pessoas estão vendo este produto agora". Isso cria estresse e incentiva compras rápidas e pouco refletidas. "Nagging" (importunação constante): o usuário é repetidamente incitado a realizar determinada ação, até que concorde apenas para se livrar do aviso irritante. Isso ocorre, por exemplo, em reservas de viagem feitas em várias etapas, nas quais a cada página reaparece a oferta de contratar um seguro adicional ou reservar assento mediante custo extra. Modelo "pague ou aceite" (pay or okay): obriga o usuário a escolher entre pagar para usar um site sem anúncios ou concordar com o processamento de dados para publicidade personalizada. Organizações de defesa do consumidor criticam esse modelo por não oferecer uma escolha realmente equivalente, pressionando os usuários a liberar seus dados, já que a alternativa é paga. "Hotel de baratas": é muito fácil se cadastrar ou assinar um serviço com poucos cliques, mas extremamente difícil cancelá‑lo. As opções de cancelamento ficam escondidas em submenus ou exigem carta escrita ou ligação telefônica. O termo vem de uma armadilha para baratas, na qual os insetos entram facilmente, mas não conseguem sair. Períodos de teste gratuitos que se convertem automaticamente em assinaturas pagas se não forem cancelados com antecedência. Os custos posteriores costumam ser exibidos de forma muito discreta. Como se proteger de dark patterns Com o Digital Services Act, a UE teoricamente proibiu operadores de plataformas online de usar tais práticas. Usuários não podem ser enganados, manipulados ou impedidos de tomar decisões livres por meio do design de um site. No entanto, os dark patterns frequentemente se movem em uma zona cinzenta jurídica. Não existe uma definição legal única e totalmente clara sobre a partir de quando um design é considerado "manipulativo". Por isso, a conscientização continua sendo a melhor proteção contra esses truques. Existem inúmeros dark patterns na internet – tantos que organizações de defesa do consumidor e projetos científicos já catalogaram diversos exemplos e tornaram públicos os mecanismos por trás deles. De modo geral, a Central Alemã de Defesa do Consumidor recomenda agir sempre com cautela na internet, não clicar rapidamente em botões pré‑definidos e verificar cuidadosamente caixas de seleção e carrinhos de compra. Além disso, usuários não devem se deixar pressionar a tomar decisões de compra apressadas nem permitir que sites provoquem sentimentos de culpa. Governo eleva classificação indicativa do YouTube e cita 'Novela das frutas'

É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; áudio foi manipulado com IA


É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; material foi manipulado com IA Reprodução Circula nas redes sociais um vídeo que supostamente mostra o senador e pré-candidato à Presidência Flávio Bolsonaro (PL-RJ) dizendo que vai criar um "auxílio sacolão de osso". É #FAKE. Selo Fake (Horizontal) g1 🛑 Como é o vídeo? O conteúdo circula desde 15 de abril no Instagram e no TikTok. Uma caixa de texto que acompanha o vídeo diz: "Irei criar o auxílio 'sacolão de osso". A gravação mostra o senador dizendo diretamente à câmera do celular: "Uma coisa, eu prometo a todos vocês, no meu governo eu irei criar o auxílio sacolão de osso. Ninguém vai ficar de fora. Promessa é dívida". O vídeo usado nos posts é uma manipulação com inteligência artificial (IA) feita a partir de um registro verdadeiro do senador, publicado em suas redes sociais em 21 de novembro do ano passado (leia mais abaixo). Na seção de comentários de uma publicação do TikTok com mais de 1,9 milhão de visualizações, usuários questionaram "gente, isso é IA? me responda por favor!" e "isso é verdade ou é montagem?", enquanto outros apontaram que o vídeo era falso. Em outro vídeo compartilhado no TikTok, também produzido com IA, o senador aparece distribuindo sacos com ossos para moradores. O conteúdo usa o mesmo áudio falso e leva uma caixa de texto que diz: "Flávio Bolsonaro é a volta da fila do osso". Em 2021, um flagrante em Cuiabá (MT) mostrou uma fila enorme de moradores na porta de um açougue para receber doação de ossos. ⚠️ Por que é #FAKE? O Fato ou Fake submeteu o material a duas ferramentas de detecção de conteúdos gerados por IA. Resultado: ambas apontaram que o áudio foi alterado com esse recurso (veja infográficos no fim da reportagem). HiveModeration - classificou que há 77,3% de chances de o áudio ter sido gerado com IA. Hiya Invid - a análise indicou que há 98% de probabilidade de haver clonagem de voz com inteligência artificial em todo o arquivo. "Hiya.com considera este fragmento de áudio como muito provavelmente gerado por IA". O Fato ou Fake identificou que o material falso é uma manipulação de um trecho de 11 segundos de um vídeo verdadeiro de Flávio Bolsonaro. O conteúdo original, além de não ter qualquer menção ao suposto "auxílio", foi compartilhado em 21 de novembro de 2025 nas redes sociais do senador, cerca de um mês antes do ex-presidente Jair Bolsonaro confirmar a pré-candidatura do filho à presidência. No vídeo, Flávio Bolsonaro convocou apoiadores para uma vigília próxima à casa do ex-presidente, em Brasília, por volta das 19h. Na ocasião, Bolsonaro estava em prisão domiciliar, sob monitoramento, restrições e uso obrigatório de tornozeleira eletrônica. Na mesma data, por volta das 23h, a Polícia Federal pediu a prisão preventiva de Bolsonaro com base no vídeo gravado pelo senador, apontando risco de fuga. Em paralelo, na madrugada do dia seguinte, Bolsonaro tentou violar a tornozeleira eletrônica com um ferro de soldar. O ministro Alexandre de Moraes determinou a prisão preventiva de Jair Bolsonaro por ver risco de fuga, citando a vigília convocada por Flávio e a tentativa de violação da tornozeleira. Na manhã do mesmo dia, o ex-presidente foi preso pela PF e levado à Superintendência da PF. Para localizar a gravação verdadeira, o Fato ou Fake fragmentou o conteúdo falso em frames (fotos estáticas) na ferramenta Invid. Depois, fez uma busca reversa no Google Lens, processo que rastreia imagens similares e identifica os resultados mais antigos do conteúdo disponíveis na internet. O resultado exibiu o post de 21 de novembro do X do senador. Procurada pelo Fato ou Fake, a assessoria de imprensa do senador afirmou que o conteúdo é "uma manipulação absurda, feita para enganar a população". Leia abaixo a nota completa: "É evidentemente falso o vídeo que circula nas redes sociais atribuindo ao senador Flávio Bolsonaro declarações sobre "auxílio sacolão do osso". Trata-se de uma manipulação absurda, feita para enganar a população. O compromisso do senador Flávio Bolsonaro, se eleito, é com a redução dos gastos públicos e do esbanjamento de dinheiro, que têm ampliado o endividamento do país e, consequentemente, pressionado a inflação, encarecido os alimentos e tirado comida do prato dos brasileiros". Hiya/InVid aponta que trecho do áudio é muito provavelmente criação de IA. Reprodução HiveModeration aponta uso de IA em vídeo. Reprodução É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; material foi manipulado com IA Reprodução Veja também É #FATO: Vídeo mostra canguru recebendo carinho em zoológico na China É #FATO: Vídeo mostra canguru recebendo carinho de visitantes em zoológico na China VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica . .. É #FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito) GloboPop: clique para ver vídeos do palco de Fato ou Fake

Google terá que pagar mais de R$ 245 milhões por discriminação racial a funcionários


Google Arnd Wiegmann/Reuterus O Google terá que pagar US$ 50 milhões (cerca de R$ 245 milhões, na cotação atual) a funcionários negros que acusaram a empresa de manter desigualdades raciais sistêmicas em contratações, salários e promoções em uma ação judicial apresentada em 2022. 📱Baixe o app do g1 para ver notícias em tempo real e de graça O acordo para o pagamento foi fechado nesta quinta-feira (8). April Curley, ex-funcionária do Google, processou a gigante da tecnologia por discriminação racial, alegando que a empresa adotava um “padrão recorrente” de tratamento injusto contra trabalhadores negros. Segundo a ação, o Google direcionava esses funcionários para cargos de menor nível e pior remuneração, além de submetê-los a um ambiente de trabalho hostil caso denunciassem a situação. Outros ex-funcionários também aderiram ao processo, que posteriormente ganhou status de ação coletiva. “Este caso é sobre responsabilização, pura e simples”, afirmou o advogado de direitos civis Ben Crump, representante dos autores da ação, em comunicado. “Por muito tempo, funcionários negros da indústria de tecnologia enfrentaram barreiras que limitam oportunidades. Este acordo representa um passo importante para responsabilizar uma das empresas mais poderosas do mundo e deixar claro que práticas discriminatórias não podem e não serão toleradas.” Procurado pela AP, o Google não respondeu até a publicação desta matéria. Vídeos em alta no g1 A ação reforça anos de reclamações de funcionários negros dentro da empresa. Entre os casos mais conhecidos está o da pesquisadora de inteligência artificial Timnit Gebru, que afirmou ter sido afastada do Google em 2020 após um conflito envolvendo um estudo sobre os riscos sociais de um ramo emergente da inteligência artificial. O processo de 2022 alegava ainda que o Google, sediado em Mountain View, avaliava candidatos negros com base em “estereótipos raciais prejudiciais”. Segundo a ação, recrutadores consideravam candidatos negros como “não suficientemente ‘Googly’” — termo usado internamente pela empresa e que, segundo os autores, funcionava como um “código” para discriminação racial. Além disso, os entrevistadores teriam intimidado e desestabilizado candidatos negros durante processos seletivos e contratado esses profissionais para cargos com salários menores, posições inferiores e menos possibilidade de crescimento, com base em estereótipos raciais. O acordo, que não representa admissão de culpa por parte do Google, também prevê medidas de análise de equidade salarial, maior transparência nos pagamentos e limites para a obrigatoriedade de arbitragem em disputas trabalhistas pelo menos até agosto de 2026, segundo Ben Crump.

Influenciadora em ética de IA tem redes sociais derrubadas


Catharina Doria viralizou com vídeos em que fala sobre cuidados com a inteligência artificial Arquivo Pessoal via BBC Catharina Doria construiu uma audiência de quase 600 mil seguidores no Instagram e em outras redes sociais ao explicar, em vídeos curtos, como diferenciar uma imagem real de uma criada por inteligência artificial. Ensinou também por que pais devem evitar postar fotos dos filhos em redes sociais e alertou sobre outras questões envolvendo a tecnologia (leia aqui entrevista da BBC News Brasil com a influenciadora). 🗒️Tem alguma sugestão de reportagem? Mande para o g1 E pode ter sido justamente o tema central de seu trabalho — os limites da decisão automatizada — que a levou a perder duas de suas contas na rede social nas últimas semanas, sob a justificativa de violar diretrizes da Meta, empresa responsável pela rede social. "E parece tragicômico que eu sou especialista em IA ética e uma IA possa destruir a minha vida. Influencer de IA ética é banida por IA", disse à BBC News Brasil. No fim de março, Catharina adotou Miss Petunia, uma cadela resgatada de maus-tratos, e, a pedido dos seguidores, criou um perfil dedicado ao animal: @misspetuniathechi. Segundo ela, a conta foi suspensa no mesmo instante em que foi criada, antes de qualquer publicação, foto de perfil ou biografia. Veja os vídeos em alta no g1 Vídeos em alta no g1 "No momento em que eu cliquei para criar a conta, eu recebi uma notificação de que a minha conta tinha sido banida por ir contra as diretrizes da comunidade", relata. "Mas não deu nem tempo de postar uma foto, nem nada. É como se a conta tivesse nascido morta." Ela encaminhou à reportagem da BBC Brasil a cópia de um e-mail que contou ter recebido do Instagram, que diz que a conta foi suspensa por violar as "Community Standards on account integrity" ("Diretrizes da comunidade sobre integridade de conta"). Catharina diz ter aberto recurso e enviado um documento de identidade, como solicitado pela plataforma. Mas conta que recebeu nova mensagem do Instagram dizendo que o documento havia sido recusado, sem detalhar o motivo, e pedindo o reenvio. Em seguida, a conta foi desativada. Em maio, o Instagram informou a ela que uma segunda conta sua havia sido suspensa: a do @theaisurvivalclub, comunidade que ela mantém para discutir letramento crítico em inteligência artificial. A justificativa seria a de que a conta estaria associada a outra que infringiu regras da empresa. "Trabalho com isso, é minha fonte de renda, é minha fonte de credibilidade. Saber que uma inteligência artificial pode acabar com o meu salário, acabar com o meu ganha-pão, acabar com tudo, é assustador." A conta principal, @cahdoria, segue ativa, mas ela teme que também seja derrubada pelas regras que contou ter recebido na resposta da Meta. Procurada, a Meta disse que não iria se manifestar. A empresa não respondeu se houve revisão humana da decisão. 'O algoritmo erra em escala' "A nossa expectativa é que, ao menos, a gente saiba o motivo (da suspensão) e que, sabendo, a gente tenha o direito de questionar", diz o advogado e pesquisador de Harvard Caio Vieira Machado. Para ele, o problema central é a opacidade das decisões. "O algoritmo deles pode ter detectado algo estranho e, a partir disso, ter sinalizado que a conta, de repente, está espalhando um conteúdo de nudez, espalhando desinformação, espalhando alguma informação política que não interessa à plataforma, alguma visão mais delicada ou polarizada, por exemplo", afirma. "Ou o contrário: às vezes alguma coisa que esteja gerando polêmica pode ser amplificada pelo algoritmo." Segundo o pesquisador, o primeiro problema é que o usuário "está recebendo um serviço que é inconstante" e "não é informado de como isso funciona com relação à transparência dos algoritmos. A gente sequer tem uma condição boa da qualidade do algoritmo". Como esses sistemas operam em escala global, diz, eventuais erros se multiplicam: "Sabendo que essas tecnologias erram, e erram em escala — pensa quantos bilhões de publicações acontecem todos os dias —, 1% se for o erro, é uma escala de milhões." Por isso, afirma, a saída esperada é a revisão humana. "Em muitos casos pode ser que o modelo simplesmente tenha interpretado errado. Falsos positivos." Ele cita um artigo da Lei Geral de Proteção de Dados (LGPD), que prevê que qualquer cidadão pode pedir que decisões automatizadas que afetem seus interesses sejam revistas por uma pessoa. Na prática, porém, esses revisores são "exércitos de pessoas contratadas por essas empresas, pagas um valor irrisório, com publicações aos milhares por dia para avaliar", afirma o advogado. "Eles têm poucos segundos para avaliar o que está lá."

De retoques a imagens malucas: saiba como usar a edição de fotos com inteligência artificial no celular

Foto editada com inteligência artificial mostra gato sobre uma roda gigante Henrique Martin/g1 com recursos de IA É fácil perceber q...