sexta-feira, 8 de maio de 2026

‘Dark patterns’: como big techs usam truques para manipular usuários e influenciar suas escolhas


Ícones do Facebook, Messenger, Instagram, WhatsApp e X Julian Christ/Unsplash Enquanto usuários, ainda temos controle sobre quais conteúdos nos são apresentados no Facebook ou no Instagram? Ou somos direcionados deliberadamente a algoritmos personalizados para que eles coletem mais dados sobre nós e aumentem o tempo que passamos nessas plataformas? Essas são as questões centrais das investigações mais recentes da autoridade irlandesa de fiscalização de mídia contra a Meta, empresa‑mãe de ambas as redes sociais. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 A autoridade está examinando se os sistemas de recomendação do Facebook e do Instagram violam o Artigo 27 da Lei dos Serviços Digitais da UE (DSA, na sigla em inglês), criada para proteger cidadãos do bloco contra práticas desleais na internet. Segundo a DSA, os usuários devem ter, a qualquer momento, a possibilidade de compreender e modificar os algoritmos de suas redes sociais. Vídeos em alta no g1 Agora, no entanto, o foco é investigar se Meta usa interfaces manipulativas, conhecidas como "dark patterns" (padrões obscuros), para dificultar desnecessariamente essas opções de escolha. Caso seja confirmada uma violação do DSA, podem ser aplicadas multas de até 6% do faturamento anual global. No caso da Meta, isso poderia chegar a 20 bilhões de euros (R$ 116 bilhões). Como funcionam os dark patterns? Dark patterns são truques específicos de design na internet que têm como objetivo levar os usuários a fazer algo que, na verdade, não querem ou que não é de seu interesse. Eles exploram, por exemplo, a comodidade das pessoas, a falta de tempo ou o medo de perder algo. Assim, os usuários são induzidos a realizar compras, contratar assinaturas ou divulgar dados pessoais. No caso atual, a autoridade irlandesa de mídia investiga, por exemplo, se a Meta esconde deliberadamente, em vários submenus, a opção de alternar entre um feed personalizado e um feed puramente cronológico. Também se analisa se a empresa simplesmente redefine essa configuração após o fechamento do aplicativo, para que os usuários, frustrados, acabem concordando com o feed personalizado apenas para não serem mais incomodados. Outros exemplos similares Escritório da Meta em Menlo Park, Califórnia, Estados Unidos REUTERS/Nathan Frandino A Meta está longe de ser a única empresa de internet suspeita de usar esse tipo de prática. Interfaces do gênero existem tanto em redes sociais quanto em lojas virtuais, jogos para celular ou outros aplicativos. E praticamente todos nós já devemos ter nos deparado com um ou outro desses exemplos. Entre os dark patterns mais comuns estão: Confirmshaming: em uma solicitação ao usuário, por exemplo, para autorizar o rastreamento de dados para publicidade personalizada, há duas opções. O botão de consentimento é grande e colorido; o de recusa, pequeno e cinza. Muitas vezes, este último também traz uma rotulagem manipuladora, como "Não, prefiro continuar vendo anúncios irrelevantes", como se a escolha fosse vergonhosa ou inferior. Botões de "não" escondidos: frequentemente existe um botão "sim", enquanto a alternativa leva a "mais opções", obrigando o usuário a se clicar por vários submenus para finalmente selecionar "não". Em alguns casos, opções já vêm previamente marcadas (pre‑ticked boxes), e o usuário precisa desmarcá‑las ativamente. Pressão artificial de tempo: comum em lojas online, com a exibição de cronômetros piscando ou avisos como "Só resta 1 item em estoque!" ou "X pessoas estão vendo este produto agora". Isso cria estresse e incentiva compras rápidas e pouco refletidas. "Nagging" (importunação constante): o usuário é repetidamente incitado a realizar determinada ação, até que concorde apenas para se livrar do aviso irritante. Isso ocorre, por exemplo, em reservas de viagem feitas em várias etapas, nas quais a cada página reaparece a oferta de contratar um seguro adicional ou reservar assento mediante custo extra. Modelo "pague ou aceite" (pay or okay): obriga o usuário a escolher entre pagar para usar um site sem anúncios ou concordar com o processamento de dados para publicidade personalizada. Organizações de defesa do consumidor criticam esse modelo por não oferecer uma escolha realmente equivalente, pressionando os usuários a liberar seus dados, já que a alternativa é paga. "Hotel de baratas": é muito fácil se cadastrar ou assinar um serviço com poucos cliques, mas extremamente difícil cancelá‑lo. As opções de cancelamento ficam escondidas em submenus ou exigem carta escrita ou ligação telefônica. O termo vem de uma armadilha para baratas, na qual os insetos entram facilmente, mas não conseguem sair. Períodos de teste gratuitos que se convertem automaticamente em assinaturas pagas se não forem cancelados com antecedência. Os custos posteriores costumam ser exibidos de forma muito discreta. Como se proteger de dark patterns Com o Digital Services Act, a UE teoricamente proibiu operadores de plataformas online de usar tais práticas. Usuários não podem ser enganados, manipulados ou impedidos de tomar decisões livres por meio do design de um site. No entanto, os dark patterns frequentemente se movem em uma zona cinzenta jurídica. Não existe uma definição legal única e totalmente clara sobre a partir de quando um design é considerado "manipulativo". Por isso, a conscientização continua sendo a melhor proteção contra esses truques. Existem inúmeros dark patterns na internet – tantos que organizações de defesa do consumidor e projetos científicos já catalogaram diversos exemplos e tornaram públicos os mecanismos por trás deles. De modo geral, a Central Alemã de Defesa do Consumidor recomenda agir sempre com cautela na internet, não clicar rapidamente em botões pré‑definidos e verificar cuidadosamente caixas de seleção e carrinhos de compra. Além disso, usuários não devem se deixar pressionar a tomar decisões de compra apressadas nem permitir que sites provoquem sentimentos de culpa. Governo eleva classificação indicativa do YouTube e cita 'Novela das frutas'

É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; áudio foi manipulado com IA


É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; material foi manipulado com IA Reprodução Circula nas redes sociais um vídeo que supostamente mostra o senador e pré-candidato à Presidência Flávio Bolsonaro (PL-RJ) dizendo que vai criar um "auxílio sacolão de osso". É #FAKE. Selo Fake (Horizontal) g1 🛑 Como é o vídeo? O conteúdo circula desde 15 de abril no Instagram e no TikTok. Uma caixa de texto que acompanha o vídeo diz: "Irei criar o auxílio 'sacolão de osso". A gravação mostra o senador dizendo diretamente à câmera do celular: "Uma coisa, eu prometo a todos vocês, no meu governo eu irei criar o auxílio sacolão de osso. Ninguém vai ficar de fora. Promessa é dívida". O vídeo usado nos posts é uma manipulação com inteligência artificial (IA) feita a partir de um registro verdadeiro do senador, publicado em suas redes sociais em 21 de novembro do ano passado (leia mais abaixo). Na seção de comentários de uma publicação do TikTok com mais de 1,9 milhão de visualizações, usuários questionaram "gente, isso é IA? me responda por favor!" e "isso é verdade ou é montagem?", enquanto outros apontaram que o vídeo era falso. Em outro vídeo compartilhado no TikTok, também produzido com IA, o senador aparece distribuindo sacos com ossos para moradores. O conteúdo usa o mesmo áudio falso e leva uma caixa de texto que diz: "Flávio Bolsonaro é a volta da fila do osso". Em 2021, um flagrante em Cuiabá (MT) mostrou uma fila enorme de moradores na porta de um açougue para receber doação de ossos. ⚠️ Por que é #FAKE? O Fato ou Fake submeteu o material a duas ferramentas de detecção de conteúdos gerados por IA. Resultado: ambas apontaram que o áudio foi alterado com esse recurso (veja infográficos no fim da reportagem). HiveModeration - classificou que há 77,3% de chances de o áudio ter sido gerado com IA. Hiya Invid - a análise indicou que há 98% de probabilidade de haver clonagem de voz com inteligência artificial em todo o arquivo. "Hiya.com considera este fragmento de áudio como muito provavelmente gerado por IA". O Fato ou Fake identificou que o material falso é uma manipulação de um trecho de 11 segundos de um vídeo verdadeiro de Flávio Bolsonaro. O conteúdo original, além de não ter qualquer menção ao suposto "auxílio", foi compartilhado em 21 de novembro de 2025 nas redes sociais do senador, cerca de um mês antes do ex-presidente Jair Bolsonaro confirmar a pré-candidatura do filho à presidência. No vídeo, Flávio Bolsonaro convocou apoiadores para uma vigília próxima à casa do ex-presidente, em Brasília, por volta das 19h. Na ocasião, Bolsonaro estava em prisão domiciliar, sob monitoramento, restrições e uso obrigatório de tornozeleira eletrônica. Na mesma data, por volta das 23h, a Polícia Federal pediu a prisão preventiva de Bolsonaro com base no vídeo gravado pelo senador, apontando risco de fuga. Em paralelo, na madrugada do dia seguinte, Bolsonaro tentou violar a tornozeleira eletrônica com um ferro de soldar. O ministro Alexandre de Moraes determinou a prisão preventiva de Jair Bolsonaro por ver risco de fuga, citando a vigília convocada por Flávio e a tentativa de violação da tornozeleira. Na manhã do mesmo dia, o ex-presidente foi preso pela PF e levado à Superintendência da PF. Para localizar a gravação verdadeira, o Fato ou Fake fragmentou o conteúdo falso em frames (fotos estáticas) na ferramenta Invid. Depois, fez uma busca reversa no Google Lens, processo que rastreia imagens similares e identifica os resultados mais antigos do conteúdo disponíveis na internet. O resultado exibiu o post de 21 de novembro do X do senador. Procurada pelo Fato ou Fake, a assessoria de imprensa do senador afirmou que o conteúdo é "uma manipulação absurda, feita para enganar a população". Leia abaixo a nota completa: "É evidentemente falso o vídeo que circula nas redes sociais atribuindo ao senador Flávio Bolsonaro declarações sobre "auxílio sacolão do osso". Trata-se de uma manipulação absurda, feita para enganar a população. O compromisso do senador Flávio Bolsonaro, se eleito, é com a redução dos gastos públicos e do esbanjamento de dinheiro, que têm ampliado o endividamento do país e, consequentemente, pressionado a inflação, encarecido os alimentos e tirado comida do prato dos brasileiros". Hiya/InVid aponta que trecho do áudio é muito provavelmente criação de IA. Reprodução HiveModeration aponta uso de IA em vídeo. Reprodução É #FAKE vídeo de Flávio Bolsonaro dizendo que vai criar 'auxílio sacolão de osso'; material foi manipulado com IA Reprodução Veja também É #FATO: Vídeo mostra canguru recebendo carinho em zoológico na China É #FATO: Vídeo mostra canguru recebendo carinho de visitantes em zoológico na China VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica . .. É #FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito) GloboPop: clique para ver vídeos do palco de Fato ou Fake

Google terá que pagar mais de R$ 245 milhões por discriminação racial a funcionários


Google Arnd Wiegmann/Reuterus O Google terá que pagar US$ 50 milhões (cerca de R$ 245 milhões, na cotação atual) a funcionários negros que acusaram a empresa de manter desigualdades raciais sistêmicas em contratações, salários e promoções em uma ação judicial apresentada em 2022. 📱Baixe o app do g1 para ver notícias em tempo real e de graça O acordo para o pagamento foi fechado nesta quinta-feira (8). April Curley, ex-funcionária do Google, processou a gigante da tecnologia por discriminação racial, alegando que a empresa adotava um “padrão recorrente” de tratamento injusto contra trabalhadores negros. Segundo a ação, o Google direcionava esses funcionários para cargos de menor nível e pior remuneração, além de submetê-los a um ambiente de trabalho hostil caso denunciassem a situação. Outros ex-funcionários também aderiram ao processo, que posteriormente ganhou status de ação coletiva. “Este caso é sobre responsabilização, pura e simples”, afirmou o advogado de direitos civis Ben Crump, representante dos autores da ação, em comunicado. “Por muito tempo, funcionários negros da indústria de tecnologia enfrentaram barreiras que limitam oportunidades. Este acordo representa um passo importante para responsabilizar uma das empresas mais poderosas do mundo e deixar claro que práticas discriminatórias não podem e não serão toleradas.” Procurado pela AP, o Google não respondeu até a publicação desta matéria. Vídeos em alta no g1 A ação reforça anos de reclamações de funcionários negros dentro da empresa. Entre os casos mais conhecidos está o da pesquisadora de inteligência artificial Timnit Gebru, que afirmou ter sido afastada do Google em 2020 após um conflito envolvendo um estudo sobre os riscos sociais de um ramo emergente da inteligência artificial. O processo de 2022 alegava ainda que o Google, sediado em Mountain View, avaliava candidatos negros com base em “estereótipos raciais prejudiciais”. Segundo a ação, recrutadores consideravam candidatos negros como “não suficientemente ‘Googly’” — termo usado internamente pela empresa e que, segundo os autores, funcionava como um “código” para discriminação racial. Além disso, os entrevistadores teriam intimidado e desestabilizado candidatos negros durante processos seletivos e contratado esses profissionais para cargos com salários menores, posições inferiores e menos possibilidade de crescimento, com base em estereótipos raciais. O acordo, que não representa admissão de culpa por parte do Google, também prevê medidas de análise de equidade salarial, maior transparência nos pagamentos e limites para a obrigatoriedade de arbitragem em disputas trabalhistas pelo menos até agosto de 2026, segundo Ben Crump.

Influenciadora em ética de IA tem redes sociais derrubadas


Catharina Doria viralizou com vídeos em que fala sobre cuidados com a inteligência artificial Arquivo Pessoal via BBC Catharina Doria construiu uma audiência de quase 600 mil seguidores no Instagram e em outras redes sociais ao explicar, em vídeos curtos, como diferenciar uma imagem real de uma criada por inteligência artificial. Ensinou também por que pais devem evitar postar fotos dos filhos em redes sociais e alertou sobre outras questões envolvendo a tecnologia (leia aqui entrevista da BBC News Brasil com a influenciadora). 🗒️Tem alguma sugestão de reportagem? Mande para o g1 E pode ter sido justamente o tema central de seu trabalho — os limites da decisão automatizada — que a levou a perder duas de suas contas na rede social nas últimas semanas, sob a justificativa de violar diretrizes da Meta, empresa responsável pela rede social. "E parece tragicômico que eu sou especialista em IA ética e uma IA possa destruir a minha vida. Influencer de IA ética é banida por IA", disse à BBC News Brasil. No fim de março, Catharina adotou Miss Petunia, uma cadela resgatada de maus-tratos, e, a pedido dos seguidores, criou um perfil dedicado ao animal: @misspetuniathechi. Segundo ela, a conta foi suspensa no mesmo instante em que foi criada, antes de qualquer publicação, foto de perfil ou biografia. Veja os vídeos em alta no g1 Vídeos em alta no g1 "No momento em que eu cliquei para criar a conta, eu recebi uma notificação de que a minha conta tinha sido banida por ir contra as diretrizes da comunidade", relata. "Mas não deu nem tempo de postar uma foto, nem nada. É como se a conta tivesse nascido morta." Ela encaminhou à reportagem da BBC Brasil a cópia de um e-mail que contou ter recebido do Instagram, que diz que a conta foi suspensa por violar as "Community Standards on account integrity" ("Diretrizes da comunidade sobre integridade de conta"). Catharina diz ter aberto recurso e enviado um documento de identidade, como solicitado pela plataforma. Mas conta que recebeu nova mensagem do Instagram dizendo que o documento havia sido recusado, sem detalhar o motivo, e pedindo o reenvio. Em seguida, a conta foi desativada. Em maio, o Instagram informou a ela que uma segunda conta sua havia sido suspensa: a do @theaisurvivalclub, comunidade que ela mantém para discutir letramento crítico em inteligência artificial. A justificativa seria a de que a conta estaria associada a outra que infringiu regras da empresa. "Trabalho com isso, é minha fonte de renda, é minha fonte de credibilidade. Saber que uma inteligência artificial pode acabar com o meu salário, acabar com o meu ganha-pão, acabar com tudo, é assustador." A conta principal, @cahdoria, segue ativa, mas ela teme que também seja derrubada pelas regras que contou ter recebido na resposta da Meta. Procurada, a Meta disse que não iria se manifestar. A empresa não respondeu se houve revisão humana da decisão. 'O algoritmo erra em escala' "A nossa expectativa é que, ao menos, a gente saiba o motivo (da suspensão) e que, sabendo, a gente tenha o direito de questionar", diz o advogado e pesquisador de Harvard Caio Vieira Machado. Para ele, o problema central é a opacidade das decisões. "O algoritmo deles pode ter detectado algo estranho e, a partir disso, ter sinalizado que a conta, de repente, está espalhando um conteúdo de nudez, espalhando desinformação, espalhando alguma informação política que não interessa à plataforma, alguma visão mais delicada ou polarizada, por exemplo", afirma. "Ou o contrário: às vezes alguma coisa que esteja gerando polêmica pode ser amplificada pelo algoritmo." Segundo o pesquisador, o primeiro problema é que o usuário "está recebendo um serviço que é inconstante" e "não é informado de como isso funciona com relação à transparência dos algoritmos. A gente sequer tem uma condição boa da qualidade do algoritmo". Como esses sistemas operam em escala global, diz, eventuais erros se multiplicam: "Sabendo que essas tecnologias erram, e erram em escala — pensa quantos bilhões de publicações acontecem todos os dias —, 1% se for o erro, é uma escala de milhões." Por isso, afirma, a saída esperada é a revisão humana. "Em muitos casos pode ser que o modelo simplesmente tenha interpretado errado. Falsos positivos." Ele cita um artigo da Lei Geral de Proteção de Dados (LGPD), que prevê que qualquer cidadão pode pedir que decisões automatizadas que afetem seus interesses sejam revistas por uma pessoa. Na prática, porém, esses revisores são "exércitos de pessoas contratadas por essas empresas, pagas um valor irrisório, com publicações aos milhares por dia para avaliar", afirma o advogado. "Eles têm poucos segundos para avaliar o que está lá."

Privacidade do Instagram desligada: o que isso significa para as suas DMs


A partir desta sexta-feira (8), o Instagram poderá acessar todo o conteúdo das mensagens diretas, incluindo imagens, vídeos e mensagens de voz Getty Images via BBC A rede social Instagram desativou o recurso que permitia aos usuários enviar mensagens com alto nível de privacidade. A partir desta sexta-feira (8), o Instagram poderá acessar todo o conteúdo das mensagens diretas, incluindo imagens, vídeos e mensagens de voz. A remoção da chamada criptografia de ponta a ponta (E2EE, na sigla em inglês), em que somente o remetente e o destinatário podem ver o conteúdo, representa uma grande guinada da Meta, empresa responsável pelo Instagram. 🗒️Tem alguma sugestão de reportagem? Mande para o g1 A criptografia de ponta a ponta é considerada por especialistas a forma mais segura de troca de mensagens na internet. Mas esse tipo de criptografia enfrenta há muito tempo a oposição de grupos que afirmam que ela facilita a disseminação de conteúdo considerado extremo (incluindo crimes) sem que autoridades consigam agir. Por isso, a decisão da Meta de remover esse tipo de criptografia de ponta a ponta do Instagram foi comemorada por grupos como organizações de proteção à infância, mas condenada por defensores da privacidade. A Sociedade Nacional de Proteção de Crianças Contra Crueldade (NSPCC, na sigla em inglês), uma das principais organizações sem fins lucrativos do Reino Unido, alerta há anos que a criptografia de ponta a ponta poderia expor crianças a riscos. "Estamos realmente satisfeitos", disse Rani Govender, do NSPCC, acrescentando que a criptografia de ponta a ponta "pode permitir que autores de crimes deixem de ser detectados, o que faz com que o aliciamento e o abuso infantil passem despercebidos". Por outro lado, defensores da privacidade afirmam que a medida representa um retrocesso. Maya Thomas, da Big Brother Watch, ONG britânica de defesa da privacidade e dos direitos civis, disse estar "decepcionada" com a decisão e afirmou que a criptografia de ponta a ponta era "uma das principais formas de crianças protegerem seus dados na internet". Thomas acrescenta haver preocupação de que a Meta esteja cedendo à pressão de governos. Antes, a Meta defendia a criptografia de ponta a ponta como o modelo mais seguro de privacidade para os usuários. Em 2019, a Meta prometeu implementar a tecnologia nas plataformas de mensagens do Facebook e do Instagram, afirmando que "o futuro é privado". A empresa concluiu a implementação dessa criptografia no Facebook Messenger em 2023 e depois tornou o recurso opcional no Instagram, com planos de torná-lo padrão. Mas, após sete anos, a Meta desistiu de ampliar o recurso no Instagram, que agora oferece apenas criptografia padrão. Na criptografia padrão, que substituiu a criptografia de ponta a ponta, um provedor de serviços de internet pode acessar conteúdo privado, se necessário. Esse é o sistema mais comum nos principais serviços online, como o Gmail, do Google. Por que a Meta desativou a criptografia de ponta a ponta? Desde 2019, a Meta defendia seus planos de ampliar a criptografia de ponta a ponta, enquanto tentava superar os desafios técnicos para levar a tecnologia ao Facebook e ao Instagram. A empresa não anunciou publicamente a decisão de abandonar a implementação da ferramenta no Instagram. Em vez disso, atualizou discretamente os termos e condições do aplicativo em março. "As mensagens com criptografia de ponta a ponta no Instagram deixarão de ser compatíveis após 8 de maio de 2026. Se você tiver conversas afetadas por essa mudança, verá instruções sobre como baixar mídias ou mensagens que deseje guardar", informou a empresa. A Meta disse a jornalistas que a decisão foi tomada porque poucos usuários aderiram ao recurso. Mas especialistas afirmam que as ferramentas opcionais costumam ter baixa adesão, já que exigir que usuários ativem um recurso manualmente cria etapas extras no uso da plataforma. Alguns analistas, entre eles a especialista em cibersegurança Victoria Baines, acreditam que a decisão reflete uma mudança na postura da Meta em relação à privacidade. "As plataformas de redes sociais monetizam nossas comunicações, publicações, curtidas e mensagens, para direcionar publicidade segmentada", afirmou. "E, cada vez mais, empresas como a Meta estão se concentrando no treinamento de modelos de inteligência artificial [IA], para os quais os dados de mensagens podem ser extremamente valiosos. Acho que a decisão é mais complexa." O Instagram já afirmou anteriormente que mensagens diretas não são usadas para treinar sistemas de IA. A empresa se recusou a comentar mais detalhadamente a decisão de recuar na política de privacidade, e o chefe do Instagram, Adam Mosseri, recusou pedidos de entrevista. No mês passado, a Meta informou aos funcionários que cliques e atividades em dispositivos de trabalho passariam a ser coletados como dados de treinamento para os modelos de IA da empresa. Grupos como a ONG Big Brother Watch afirmam que a decisão da Meta pode influenciar toda a indústria de redes sociais. Até recentemente, a expansão da criptografia de ponta a ponta era vista como a direção natural do setor. Esse tipo de criptografia é padrão no Signal, no WhatsApp, no Facebook Messenger, no iMessage, da Apple, e no Google Messages O Telegram oferece o recurso como opcional, mas não de forma padrão O X, antigo Twitter, oferece um sistema semelhante para mensagens diretas, embora críticos afirmam que ele não atende aos padrões de segurança da indústria O Snapchat usa a tecnologia para fotos e vídeos enviados por mensagens diretas e já afirmou que pretende expandi-la para mensagens de texto. O Discord planeja tornar chamadas de voz e vídeo protegidas por criptografia de ponta a ponta de forma padrão. O TikTok disse à BBC em março que não tinha planos de implementar a tecnologia em mensagens diretas. Analistas, entre eles a especialista em cibersegurança Baines, acreditam que essas decisões podem desacelerar a disseminação da criptografia de ponta a ponta, fazendo com que ela fique restrita, no futuro, principalmente a aplicativos dedicados a mensagens.

Google Chrome pode adicionar uma IA no seu computador de forma discreta; saiba como impedir


Google Chrome Unsplash/Zulfugar Karimov Uma ação pouco conhecida do Google Chrome tem repercutido na internet nos últimos dias: o navegador pode baixar e instalar uma IA no computador do usuário sem pedir autorização explícita para isso. O recurso pode ocupar cerca de 4 GB de armazenamento (saiba como desativar). A descoberta foi feita pelo cientista da computação e advogado sueco conhecido como That Privacy Guy. Em uma publicação em seu blog, ele detalhou como o Google estaria realizando a instalação automática, segundo o site especializado em tecnologia CNET. ➡️ Procurado pelo g1, o Google afirmou que a IA instalada, chamada Gemini Nano, é usada em recursos de segurança do Chrome, como a detecção de golpes. A empresa também disse que a ferramenta é desinstalada automaticamente caso o computador apresente "escassez de recursos". Vídeos em alta no g1 Segundo That Privacy Guy, o download do Gemini Nano acontece quando os recursos de IA do Google Chrome estão ativados. De acordo com ele, essas funções já vêm ligadas por padrão nas versões mais recentes do navegador. Assim, computadores compatíveis com a tecnologia podem receber a IA automaticamente. Ainda de acordo com That Privacy Guy, o Gemini Nano é baixado em computadores com a versão 147 do Google Chrome. Para verificar se essa é a versão instalada no seu dispositivo, basta acessar as configurações do navegador e clicar em "Sobre o Chrome". Como desativar Em nota enviada ao g1, o Google indicou uma página da sua central de ajuda com orientações para desativar o Gemini Nano no computador. "Uma vez desabilitado, o modelo não realizará novos downloads ou atualizações", disse. Veja o passo a passo: Abra o Google Chrome no computador; No canto superior direito, clique no ícone de três pontos e vá em "Configurações"; Depois, acesse a opção "Sistema"; Por fim, desative a função "IA do dispositivo" ("On-device AI"). Por que o Google diz que isso é necessário? Em sua central de ajuda, o Google afirma que os modelos de IA generativa são usados em recursos do Chrome, como ajuda para escrever ou reformular textos, alertas de golpes, resumos de páginas da web e organização de abas. Segundo a empresa, para que essas funções funcionem diretamente no computador do usuário, os modelos de IA precisam ser baixados e armazenados no dispositivo. O que diz o Google "Oferecemos o Gemini Nano para o Chrome desde 2024 como um modelo leve de processamento no dispositivo (on-device). Ele viabiliza recursos de segurança essenciais, como detecção de golpes e APIs para desenvolvedores, sem o envio de dados para a nuvem. Embora o funcionamento exija espaço de armazenamento local no desktop, o modelo será desinstalado automaticamente caso o dispositivo apresente escassez de recursos. Em fevereiro, iniciamos o rollout da funcionalidade que permite aos usuários desativar e remover o modelo com facilidade diretamente nas configurações do Chrome. Uma vez desabilitado, o modelo não realizará novos downloads ou atualizações. Mais detalhes podem ser encontrados em nosso artigo na central de ajuda.” Governo eleva classificação indicativa do YouTube e cita 'Novela das frutas' Ex-chefe do WhatsApp no Brasil cria ONG para denúncias contra big techs Entenda embate entre governo dos EUA e Claude, rival do ChatGPT

quinta-feira, 7 de maio de 2026

Plataforma educacional usada em Harvard e Johns Hopkins sofre ataque hacker


Harvard tem 24.596 alunos matriculados neste ano e 20.667 empregados em todos os departamentos, incluindo os docentes Getty Images/BBC Um ataque cibernético derrubou nesta quinta-feira (7) a plataforma Canvas, usada por milhares de escolas e universidades para gerenciar notas, materiais de aula, tarefas e vídeos, causando caos entre estudantes em meio ao período de provas finais nos Estados Unidos. Segundo Luke Connolly, analista da empresa de cibersegurança Emsisoft, o grupo hacker ShinyHunters reivindicou a autoria da invasão. A Instructure, empresa responsável pelo Canvas, não comentou o caso nem informou se o sistema foi retirado do ar preventivamente ou se foi derrubado pelos hackers. De acordo com Connolly, o grupo afirmou ter afetado cerca de 9 mil instituições de ensino em todo o mundo e acessado bilhões de mensagens privadas e outros registros. Nas redes sociais, estudantes relataram dificuldades para acessar materiais de estudo para exames finais. Algumas universidades começaram a adiar provas e emitir alertas sobre possíveis tentativas de phishing. 🔎 “Phishing” é um tipo de golpe digital em que criminosos tentam enganar pessoas para roubar senhas, dados bancários ou outras informações pessoais. Vídeos em alta no g1 A Universidade do Texas em San Antonio anunciou o adiamento de provas marcadas para sexta-feira. Já instituições como a Universidade da Pensilvânia, a Universidade Harvard e a Universidade Johns Hopkins também registraram impactos. Especialistas afirmam que escolas e universidades se tornaram alvos frequentes de hackers por concentrarem grandes volumes de dados digitalizados. O ataque ao Canvas foi comparado a uma invasão recente sofrida pela plataforma educacional PowerSchool.

‘Dark patterns’: como big techs usam truques para manipular usuários e influenciar suas escolhas

Ícones do Facebook, Messenger, Instagram, WhatsApp e X Julian Christ/Unsplash Enquanto usuários, ainda temos controle sobre quais co...