sexta-feira, 20 de fevereiro de 2026

A prisão de brasileiro que abalou rede global de abusadores de crianças


Documentário da BBC acompanhou rotina de policiais dedicados ao combate do abuso sexual infantil na dark web BBC Em uma manhã de 2019, a Polícia Federal (PF) deflagrou uma operação que caiu como uma bomba atômica sobre redes globais de abusadores sexuais de crianças, mas quase ninguém ficou sabendo. ✅ Siga o canal de notícias internacionais do g1 no WhatsApp Naquele dia, após vários meses de investigação e com o apoio de policiais de diferentes países, investigadores brasileiros prenderam um homem que administrava cinco dos maiores fóruns de materiais de abuso sexual infantil na "dark web", uma parte oculta da internet só acessível por ferramentas específicas. Segundo a PF, os fóruns tinham quase 2 milhões de usuários espalhados pelo mundo. Discreto e dotado de grande conhecimento técnico, o dono dos sites era conhecido na "dark web" como Lubasa e vinha conseguindo escapar das forças globais de segurança fazia alguns anos. Apesar da grandiosidade do feito, a prisão foi mantida em sigilo por um motivo: com os servidores do criminoso em mãos, a polícia tinha informações para desmascarar outros tantos abusadores que frequentavam seus sites e temia que, se eles soubessem da detenção de Lubasa, poderiam tentar fugir. Veja os vídeos que estão em alta no g1 Sete anos depois da prisão — e de centenas de novas operações ocorridas a partir daquela, incluindo o resgate de um menino sequestrado que era tratado como morto na Rússia —, a história é narrada em "Infiltrados na dark web", um documentário da BBC News Brasil com a BBC Eye, equipe de investigações da BBC. A equipe de reportagem passou sete anos acompanhando a rotina de policiais do Brasil, Estados Unidos, Rússia e Portugal que integram uma coalizão formada para combater o abuso sexual infantil na "dark web". Muitos deles trabalham infiltrados em fóruns frequentados por pedófilos, buscando informações que levem à identificação de criminosos e ao resgate de suas vítimas. Rafaella Parca, delegada da Polícia Federal que trabalha no combate ao abuso sexual infantil. BBC Espécie de internet paralela, não indexada por buscadores, a "dark web" foi criada em 1990 pelo Departamento de Defesa dos EUA para que espiões se comunicassem em segredo, já que a rede permite que usuários ocultem a identidade e rastros digitais. Após ter sido aberta ao público, em 2004, ela passou em poucos anos a abrigar fóruns voltados à distribuição de materiais de abuso sexual infantil, tornando-se um dos principais campos de ação para policiais que combatem esse tipo de crime. Floresta em Portugal onde Twinkle escondia seus arquivos. BBC O início das buscas A coalizão global de policiais retratada no documentário passou a priorizar a identificação de Lubasa, especialmente após a prisão de um de seus principais colaboradores — um português conhecido nos fóruns da "dark web" como Twinkle. Os nomes reais de Twinkle e Lubasa não são revelados para proteger suas vítimas. Twinkle era o principal colaborador do BabyHeart, um dos fóruns mais violentos da dark web. A plataforma era administrada pelo brasileiro Lubasa e abrigava cenas de abuso sexual de bebês. Twinkle fornecia "uma quantidade quase inacreditável" de fotos e vídeos de abusos para o site, diz à BBC Greg Squire, agente do Departamento de Segurança Interna dos EUA e um dos líderes da coalizão internacional de policiais. Segundo Squire, o criminoso português produziu e postou na plataforma cenas de abusos de até 15 crianças diferentes. "Assistir alguém estuprar um bebê… Não há nada de humano nisso", diz Squire. Identificá-lo, porém, era difícil, pois Twinkle escrevia em diferentes idiomas e evitava compartilhar informações pessoais na rede. A primeira pista sobre sua nacionalidade só surgiu após Twinkle usar uma expressão típica da língua portuguesa em uma conversa em inglês com outro usuário: "Custou os olhos da minha cara". Mas ele só foi identificado tempos depois, quando a polícia brasileira prendeu um abusador de crianças que se correspondia virtualmente com o criminoso português. Twinkle foi preso em sua casa, em um vilarejo no norte de Portugal. Ao arrombar a porta, a polícia o encontrou na cama ao lado de duas crianças. Os arquivos onde ele armazenava fotos e vídeos de abusos estavam enterrados em uma floresta vizinha à residência e também foram recuperados. Mas, ao questionarem Twinkle sobre como poderiam tirar do ar o site BabyHeart, os policiais ouviram dele que somente uma pessoa seria capaz de fazê-lo: Lubasa, a quem o português chamou de "chefão". Twinkle cumpre hoje pena de 21 anos de prisão em Portugal. Operação contra abuso sexual infantil realizada pelo Departamento de Segurança Interna dos EUA BBC Um criminoso 'idolatrado por 2 milhões pessoas' O nome Lubasa já circulava entre os policiais da coalizão fazia alguns anos, mas ainda não havia pistas que levassem à sua identificação. "Lubasa estava em outro nível. Se chegássemos até ele, teríamos acesso a tudo o que acontecia sob seu comando", lembra Squire. Naquela altura, policiais brasileiros já estavam no encalço do criminoso. "Ele era uma pessoa idolatrada por mais de 2 milhões de pessoas ao redor do mundo", diz a delegada brasileira Rafaella Parca, também integrante da coalizão e membro da Divisão de Repressão a Crimes Cibernéticos da Polícia Federal. Por criar e manter a estrutura para que os fóruns de abuso sexual infantil funcionassem, Lubasa era tratado pela polícia como "responsável por todos os crimes que aconteciam dentro desses locais", diz Parca. Mas, assim como Twinkle e outros pedófilos da dark web, o brasileiro falava pouco de si na plataforma, dificultando sua identificação. Até que, após vários meses de investigações, seu nome real foi finalmente descoberto. Lubasa (rosto borrado, à esq.) é interrogado por policial no momento de sua prisão. Polícia Federal do Brasil/BBC As cenas da captura de Lubasa, em 2019, são reveladas pela primeira vez no documentário da BBC, assim como os detalhes de seu caso, que passaram vários anos sob sigilo. Sete anos depois, a polícia avalia que a divulgação das informações já não compromete outras investigações nem a busca por outros criminosos associados a Lubasa. "Ele ficou surpreso, apático, calado, como se aquilo fosse inacreditável", lembra Parca sobre o dia da prisão. "Ele acreditava que era inatingível." Hoje, Lubasa cumpre pena de 266 anos de prisão no Brasil. Ao capturá-lo, em meio a uma grande quantidade de lixo e sujeira na sua casa, a polícia encontrou os servidores que mantinham seus cinco fóruns de pedofilia no ar — máquinas avaliadas em vários milhares de reais. Foi a maior apreensão de arquivos da dark web na história, segundo a coalizão de policiais. Os arquivos foram compartilhados com as polícias que compunham a coalizão e com a Interpol, maior organização policial do mundo que reune 196 países para facilitar a cooperação global e o intercâmbio seguro de dados sobre crimes. Com base nos documentos, centenas de usuários dos fóruns de Lubasa foram identificados e presos em diferentes países. Entre os detidos, havia pessoas que produziam materiais de abusos e outras que viam e assistiam aos conteúdos. "Mesmo que a pessoa não tenha tido contato direto com crianças, ela é a razão da existência desses sites", diz Greg Squire, do Departamento de Segurança Interno dos EUA. "Essas pessoas criam a demanda e incentivam aqueles que têm acesso a crianças." Gordana Vujisic, investigadora da Interpol com experiência em casos de abuso de crianças. BBC Menino foi resgatado na Rússia Os arquivos apreendidos com Lubasa provocaram uma reviravolta em um caso que chocou a Rússia, em 2020. Fazia 52 dias que a polícia russa procurava um menino de 7 anos sequestrado enquanto voltava da escola, em uma zona rural. Acompanhadas com destaque pela imprensa russa, as buscas envolveram milhares de voluntários e agentes de diferentes forças de segurança. Fazendas e armazéns abandonados foram examinados, e as equipes esmiuçaram o trajeto do menino em busca de algum rastro. Mas, sem pistas significativas após várias semanas, a polícia suspendeu a operação e passou a considerar que o garoto tinha sido morto pelo sequestrador. Enquanto isso, o agente Greg Squire viu em um fórum na dark web fotos de um menino "loiro, claramente em sofrimento", que se parecia com o garoto russo desaparecido. As fotos haviam sido postadas por um usuário conhecido como Lover Boy Only (LBO), que já era monitorado por Greg. O agente lembra que LBO já havia dito nos fóruns que tinha planos de sequestrar e matar um menino. Squire pediu então a ajuda de Gordana Vujisic, uma investigadora da Interpol em Montenegro, país da região dos Balcãs, com grande experiência em casos de abuso sexual infantil — e falante de russo. "Estávamos todos em fusos horários diferentes, mas, mesmo sendo noite nos Estados Unidos ou na Rússia, quando eu enviava uma mensagem, recebia uma resposta imediatamente", ela lembra. "Nem sequer pensávamos em dormir." Os policiais temiam que LBO concretizasse o plano de matar o menino. "A vida dele estava em nossas mãos", diz a policial. Vujisic então passou a se debruçar sobre os arquivos apreendidos durante a captura de Lubasa, em busca de alguma pista sobre a identidade de LBO. Dentre as milhares de mensagens e fotos postadas pelo criminoso nos fóruns geridos por Lubasa, ela encontrou três informações que poderiam destravar as investigações: em diferentes conversas, LBO citou o local de trabalho do irmão, disse que sua mãe tinha morrido em um acidente de carro e que ele sofria de esquizofrenia. Ao cruzar as informações, a polícia chegou ao nome de Dimitriy Kopylov e mobilizou uma equipe de resgate para vasculhar sua residência. Chegando lá, arrombaram portas e janelas e encontraram Kopylov com o menino — vivo. O garoto foi devolvido a seus pais, e Kopylov, condenado a 19 anos de prisão. Casa onde sequestrador russo mantinha menino capturado enquanto voltava da escola. BBC Ciclo sem fim Desde 2018 dedicada a investigações de abuso sexual de crianças, a delegada Rafaella Parca diz que, nesse campo, o fim de um caso significa o início de outro. As provas colhidas em uma investigação muitas vezes levam a outros suspeitos, alimentando um ciclo que nunca se encerra. Em nenhum caso isso foi tão verdadeiro quanto no de Lubasa, diz Parca. "A gente sabia que aquela prisão seria o início de outras coisas, [ficou] uma sensação de que o trabalho estava recomeçando a partir dali", afirma a delegada. Mesmo assim, Parca diz conseguir desfrutar do momento ínfimo que separa o fim de um caso do começo do seguinte. "A gente sofre tanto até conseguir resolver, e quando a gente resolve, resgata uma criança ou prende o abusador, é algo libertador", diz a delegada. "Você vê o resultado imediato, você muda a vida de uma criança, de uma família, de um círculo de pessoas, e isso é indescritível."

Três engenheiros do Vale do Silício são presos acusados de roubar dados do Google para mandar para o Irã


Logo do Google em uma convenção de tecnologia em Paris, na França, em 25 de maio de 2018 CHARLES PLATIAU/Reuters Três engenheiros do Vale do Silício foram presos na quinta-feira (19) acusados de roubar segredos comerciais do Google e de outras grandes empresas de tecnologia para enviar ao Irã, informou a procuradoria do Distrito Norte da Califórnia, dos EUA. Eles também são acusados de obstruir a Justiça. Entre os presos, estão as irmãs Samaneh Ghandali, de 41 anos, e Soroor Ghandali, de 32. O terceiro réu é Mohammad Khosravi, 40, marido de Samaneh. Samaneh Ghandali e Soroor Ghandali trabalharam no Google antes de irem para outra empresa de tecnologia identificada no processo como “Empresa 3”. Já Khosravi, marido de Samaneh, trabalhou em uma companhia identificada como “Empresa 2”. Segundo a acusação, os réus usaram seus cargos para obter acesso a informações confidenciais e sensíveis. Veja os vídeos que estão em alta no g1 Em seguida, segundo a acusação, eles teriam transferido documentos confidenciais do Google e de outras empresas para locais não autorizados, como dispositivos de trabalho ligados aos empregadores uns dos outros, aparelhos pessoais, além de terem mandado para o Irã. Nesses documentos, continham segredos comerciais relacionados à segurança de processadores, criptografia e outras tecnologias. A denúncia descreve que, enquanto trabalhava no Google, Samaneh Ghandali teria transferido centenas de arquivos para uma plataforma de comunicação de terceiros, em canais que levavam os primeiros nomes de cada um dos acusados. Soroor Ghandali também é acusada de ter transferido diversos arquivos do Google para esses canais enquanto ainda era funcionária da empresa. Posteriormente, esses arquivos teriam sido copiados para dispositivos pessoais, para o computador de trabalho de Khosravi na “Empresa 2” e para o equipamento profissional de Soroor na “Empresa 3”. Ocultamento de informações Ainda de acordo com a acusação, os três tentaram ocultar as ações por meio da entrega de declarações juramentadas falsas às empresas vítimas, negando condutas relacionadas aos segredos comerciais roubados. Também teriam destruído arquivos e registros eletrônicos e adotado métodos para evitar a detecção, como fotografar manualmente telas de computador com documentos confidenciais, em vez de transferir os arquivos completos por plataformas digitais. Em agosto de 2023, após os sistemas internos de segurança do Google detectarem atividades de Samaneh Ghandali e revogarem seu acesso aos recursos da empresa, ela teria assinado uma declaração afirmando que não havia compartilhado informações confidenciais fora da companhia. Segundo a denúncia, ela e Khosravi passaram então a pesquisar e acessar sites sobre como excluir comunicações e dados, incluindo informações sobre quanto tempo operadoras de celular mantêm mensagens “para imprimir em tribunal”. O casal continuou acessando segredos comerciais armazenados em dispositivos pessoais e, ao longo de meses, teria fotografado manualmente centenas de telas de computador com informações confidenciais do Google e da “Empresa 2”. Na noite anterior a uma viagem ao Irã, em dezembro de 2023, Samaneh Ghandali teria feito cerca de 24 fotografias da tela do computador de trabalho de Khosravi, contendo informações sigilosas da “Empresa 2”. Já no Irã, um dispositivo pessoal associado a Samaneh teria acessado essas imagens, enquanto Khosravi teria acessado outras informações confidenciais da empresa. Em nota, o procurador federal dos Estados Unidos Craig H. Missakian afirmou que os acusados “exploraram suas posições para roubar segredos comerciais confidenciais de seus empregadores” e que o escritório continuará atuando para proteger a inovação americana e processar indivíduos que roubem tecnologias sensíveis para ganho indevido ou para beneficiar países hostis. O agente especial do FBI responsável pelo caso, Sanjay Virmani, disse que as ações descritas na denúncia representam “uma traição calculada de confiança” e que os acusados teriam adotado medidas deliberadas para evitar detecção e ocultar suas identidades. Ele afirmou que proteger a inovação do Vale do Silício e as tecnologias que impulsionam a economia e a segurança nacional é prioridade da agência. Os três devem voltar ao tribunal em 20 de fevereiro de 2026, quando será definida a representação legal, perante a juíza Susan van Keulen. A denúncia apenas alega que crimes foram cometidos, e todos os acusados são considerados inocentes até que se prove a culpa além de dúvida razoável. Se condenados, cada um pode pegar até 10 anos de prisão e multa de US$ 250 mil por cada acusação de conspiração para roubo de segredos comerciais e de roubo ou tentativa de roubo. No caso de obstrução de procedimento oficial, a pena máxima pode chegar a 20 anos de prisão e multa de US$ 250 mil. O caso está sendo processado pela Seção de Segurança Nacional e Processos Especiais do escritório do procurador dos EUA para o Distrito Norte da Califórnia, a partir de investigação conduzida pelo FBI.

Grindr começa a exigir verificação de idade para usuários no Brasil


Chinesa dona do Grindr vende aplicativo por US$ 608 milhões Aly Song/Reuters O Grindr, aplicativo de relacionamento LGBTQIA+, começa a exigir verificação de idade dos usuários nesta sexta-feira (20). A atualização atende a uma nova exigência do Estatuto Digital da Criança e do Adolescente (ECA). "A lei determina que plataformas e serviços destinados a adultos utilizem métodos de verificação de idade para garantir que apenas pessoas com 18 anos ou mais tenham acesso aos seus serviços", diz a plataforma. O Grindr também explicou como vai funcionar a verificação de idade e qual ferramenta utiliza. Veja abaixo: verificação de idade: para confirmar que têm 18 anos ou mais, usuários do Grindr no Brasil podem enviar um breve vídeo selfie ou optar por combinar o vídeo com um documento oficial com foto; processo único e vinculado à conta: a verificação precisa ser feita apenas uma vez por conta. Novos usuários serão solicitados a concluir o procedimento durante o cadastro. Quem já utiliza o aplicativo — ou abrir o app enquanto estiver no Brasil — também deverá passar pelo processo; acesso condicionado à conclusão: no Brasil, o acesso ao Grindr ficará bloqueado até que a verificação de idade seja finalizada; parceria com a FaceTec: o Grindr utiliza tecnologia de verificação biométrica da FaceTec. Segundo a empresa, todo o processamento de dados é gerenciado de forma independente, com o objetivo de proteger a privacidade dos usuários e garantir que o acesso seja restrito a adultos. Veja os vídeos que estão em alta no g1 Documentos oficiais aceitos Caso você opte — ou seja solicitado — a usar o método que combina um documento oficial com foto e um vídeo selfie, os seguintes documentos são aceitos: Carteira de Motorista Passaporte Carteira de Identidade Carteira de Piloto Carteira da OAB Carteira de Identidade Digital Carteira de Registro Nacional Migratório Carteira de Farmacêutico Carteira de Enfermagem Carteira Profissional / Carteira de Identidade Profissional Registro Nacional Migratório Carteira de Bombeiro Militar Carteira de Farmacêutico Como sua privacidade é protegida Para proteger sua privacidade, documentos e vídeos fornecidos são utilizados apenas para a verificação de idade, são criptografados de forma segura durante o processo e excluídos permanentemente após a conclusão. O Grindr não retém os documentos ou vídeos enviados, mantém apenas a informação sobre qual método de verificação foi escolhido e se o processo foi aprovado ou reprovado. E fora do Brasil? Se você estiver fora do Brasil, não verá essa verificação, a menos que abra o Grindr durante uma visita ao país. Nesse caso, o processo será aplicado da mesma forma.

ONU defende comissão de 'controle humano' da inteligência artificial e Casa Branca rejeita


Primeiro-ministro da Índia, Narendra Modi (C), em grupo com líderes de empresas de IA na Cúpula de Impacto da IA ​​em Nova Delhi. LUDOVIC MARIN / AFP Uma nova comissão da ONU busca o "controle humano" da inteligência artificial (IA), anunciou nesta sexta-feira (20) o secretário-geral das Nações Unidas durante uma reunião de cúpula na Índia, uma ideia rejeitada pelo governo dos Estados Unidos. A demanda por IA generativa provocou a disparada dos lucros das empresas de tecnologia, mas também alimentou muitos temores sobre seu impacto na sociedade, nos empregos e, inclusive, na saúde do planeta. "Estamos entrando no desconhecido", afirmou o secretário-geral da ONU, António Guterres, na Cúpula sobre o Impacto da IA celebrada em Nova Délhi, que termina nesta sexta-feira. "A mensagem é simples: menos exagero, menos medo. Mais fatos e evidências". Veja os vídeos que estão em alta no g1 Segundo Guterres, a Assembleia Geral da ONU designou 40 especialistas para um novo grupo denominado Painel Científico Internacional Independente sobre Inteligência Artificial. O presidente brasileiro, Luiz Inácio Lula da Silva, alertou que, "sem uma ação coletiva, a inteligência artificial aprofundará desigualdades históricas". "Os algoritmos não são apenas aplicações de códigos matemáticos que sustentam o mundo digital. São parte de uma complexa estrutura de poder", acrescentou. "Quando poucos controlam os algoritmos e as infraestruturas digitais, não estamos falando de inovação, mas de dominação", completou. O órgão consultivo foi criado em agosto e tem como objetivo abordar a IA da mesma forma que o Painel Intergovernamental sobre Mudança Climática (IPCC) da ONU trata o aquecimento global, estabelecendo avaliações sobre seu impacto e estratégias de resposta. "A governança baseada na ciência não é um freio ao progresso, e sim pode torná-lo mais seguro, mais justo e mais amplamente compartilhado", defendeu Guterres na cúpula. "Quando compreendermos o que os sistemas podem fazer, e o que não podem fazer, poderemos passar de medidas aproximadas para barreiras de proteção mais inteligentes e baseadas no risco", acrescentou. O conselheiro de tecnologia da Casa Branca, Michael Kratsios, afirmou que o governo dos Estados Unidos rejeita "totalmente" uma governança global da IA. Kratsios, chefe da delegação americana na cúpula sobre IA de Nova Délhi, disse: "Como o governo (do presidente Donald) Trump já disse em muitas ocasiões: rejeitamos totalmente a governança global da IA", disse. "Acreditamos que a adoção da IA não pode levar a um futuro mais promissor se estiver submetida a burocracias e ao controle centralizado", acrescentou. Ele disse que a IA tem o potencial de "promover o crescimento humano e gerar uma prosperidade sem precedentes". As "obsessões ideológicas centradas em riscos, como o clima ou a equidade, viram desculpas para a gestão burocrática e a centralização", afirmou. O presidente da França, Emmanuel Macron, e Lula se encontram na Cúpula de Impacto da IA ​​em Nova Delhi. Ludovic Marin/AFP Bem comum mundial Esta é a quarta reunião mundial anual concentrada na política da IA. A próxima acontecerá em Genebra no primeiro semestre de 2027. O encontro em Nova Délhi deveria terminar com uma declaração conjunta, mas é difícil saber como será o texto. As três edições anteriores terminaram com um comunicado bastante vago. O governo dos Estados Unidos critica uma regulamentação do acesso e do conteúdo das plataformas para não minar - justifica - a liberdade de expressão. A reunião em Nova Délhi é a primeira cúpula sobre inteligência artificial organizada em um país em desenvolvimento. A Índia tenta aproveitar a oportunidade para impulsionar suas ambições de alcançar Estados Unidos e China no setor. Nova Délhi espera mais de 200 bilhões de dólares em investimentos durante os próximos dois anos. Várias empresas do setor de tecnologia americano anunciaram nos últimos dias novos acordos e projetos de infraestrutura. Sam Altman, CEO da OpenAI e à frente do ChatGPT, pediu na quinta-feira a adoção urgente de uma regulamentação sobre o uso da IA. "A democratização da IA é a melhor maneira de garantir que a humanidade prospere", afirmou em seu discurso. "Isso não quer dizer que não precisamos de nenhuma regulamentação ou medida de segurança. É óbvio que precisamos delas, com urgência". Os debates da cúpula de Nova Délhi, que recebeu milhares de pessoas, incluíram grandes temas, da proteção das crianças até a perda de postos de trabalho e a necessidade de um acesso mais equitativo às ferramentas de IA em todo o mundo. Contudo, a abordagem ampla e as promessas vagas feitas nos encontros anteriores na França, na Coreia do Sul e no Reino Unido podem dificultar os compromissos concretos. "Estamos entrando em uma era na qual os seres humanos e os sistemas de inteligência criam, trabalham e evoluem juntos", afirmou na quinta-feira o anfitrião, o primeiro-ministro indiano Narendra Modi. "Devemos decidir que a IA seja utilizada para o bem comum mundial", disse.

O que é nobreak e por que usar para evitar perda de internet?


Cidade de São Paulo durante apagão da Enel em dezembro de 2025 Reprodução/TV Globo Temporais de verão muitas vezes são sinônimos de queda de energia e, para muitos, o pior pesadelo: ficar sem internet. Para evitar essa situação e não perder o sinal de wi-fi, uma solução é usar um nobreak. A bateria interna do aparelho garante energia por tempo suficiente para terminar uma reunião importante, enviar e-mails urgentes ou simplesmente continuar navegando. Além de manter os eletrônicos ligados, o nobreak atua como uma barreira de proteção quando a energia volta, evitando picos de tensão que podem queimar sua TV, computador ou outros eletrônicos sensíveis. Mesmo quando a rede elétrica está normal, o nobreak estabiliza a corrente, fornecendo uma energia "limpa" e diminuindo o risco de danos a componentes internos dos seus equipamentos. Veja os vídeos que estão em alta no g1 O que eu posso ligar no nobreak? A escolha dos eletrônicos que devem ser ligados nos nobreaks deve se basear nos “essenciais”, de acordo com Bruno de Alcantara Dias, professor de engenharia elétrica da FEI. TVs, computadores, videogames, modems, roteadores e monitores entram na lista. “Tem que pensar na proteção dos itens mais caros”, afirmou Luis Cuevas, diretor da fabricante APC. Segundo a fabricante Intelbras, é melhor evitar ligar eletrodomésticos com motor – como secadores, geladeiras e aspiradores de pó, por conta de um pico de corrente elétrica maior, que pode esgotar a autonomia da bateria. O que levar em conta na hora da compra? Para acertar na escolha, é preciso considerar alguns pontos: Potência dos equipamentos que serão ligados, medidas em Watts (veja abaixo). Autonomia: o tempo que a bateria do nobreak consegue manter os equipamentos ligados. "Quanto mais carga, menos autonomia”, explicou Rubens Lorenço Neto, gerente da linha de nobreak da fabricante Intelbras. Tipo de uso: Defina se o aparelho será usado continuamente para filtrar a energia ou apenas em quedas de luz. Como calcular a potência? A potência de um nobreak é medida em VA (volt-ampere), enquanto a dos eletrônicos é medida em W (watts). Para saber se o nobreak aguenta muitos aparelhos ligados a ele, é preciso converter W em VA. Para facilitar, muitos fabricantes oferecem calculadoras on-line que fazem esse cálculo em seus sites. Também dá para fazer uma conta simples: somar o consumo em watts de tudo que você vai ligar. Depois, procurar um nobreak com uma capacidade em VA que seja superior à soma dos watts dos equipamentos. Na prática: se você quer ligar dois notebooks (45W cada), um modem (5W) e dois roteadores (20W cada), o consumo total será de 135W. Um nobreak convencional de 500VA ou 600VA já seria suficiente para essa configuração. Quais são os tipos de nobreak? Existem diferentes modelos de nobreak no mercado, cada um para uma necessidade específica: Fonte 12V com bateria: É o mais simples. Tem esse nome porque substitui a fonte de modems e roteadores, sendo uma solução compacta e direcionada para um só eletrônico. Mini nobreaks: Também focados em equipamentos de 12V, como câmeras de segurança e modems, garantindo o funcionamento deles em caso de apagão. Nobreaks convencionais: Maiores e com mais tomadas, oferecem monitoramento constante da qualidade da energia e são indicados para computadores, TVs e videogames. Tipos de nobreak: fonte, mini e modelo convencional Reprodução Qual é o tipo de funcionamento? Os nobreaks se diferenciam pela forma como fornecem energia: Stand-by (ou offline): É o mais comum. Ele só ativa a bateria quando detecta uma queda ou variação brusca na energia. Os modelos mini e fonte se encaixam nessa categoria. Interativo: Semelhante ao stand-by, mas possui um estabilizador interno que corrige pequenas variações de tensão sem precisar usar a bateria, aumentando sua vida útil. Online (ou dupla conversão): Considerado o mais completo e seguro. Os aparelhos ficam o tempo todo ligados à bateria, que é constantemente recarregada. Isso garante que eles recebam uma energia sempre "pura" e estável, sem qualquer interrupção na transição. Veja a seguir uma lista com nobreaks à venda nas principais lojas da internet. Os preços iam de R$ 170 a R$ 450 para os mini/fonte e de R$ 900 a R$ 2.000 para os modelos convencionais. Os valores foram consultados no meio de fevereiro. Intelbras fonte nobreak EFB 1201 Mini nobreak APC Easy Back-UPS Mini nobreak Knup Aitek Mini nobreak Marsriva KP3 Nobreak APC BX1500BI-BR Nobreak gamer Intelbras Ultimate Nobreak SMS Pro 29401 8T Nobreak TS Shara XPro Universal Esta reportagem foi produzida com total independência editorial por nosso time de jornalistas e colaboradores especializados. Caso o leitor opte por adquirir algum produto a partir de links disponibilizados, a Globo poderá auferir receita por meio de parcerias comerciais. Esclarecemos que a Globo não possui qualquer controle ou responsabilidade acerca da eventual experiência de compra, mesmo que a partir dos links disponibilizados. Questionamentos ou reclamações em relação ao produto adquirido e/ou processo de compra, pagamento e entrega deverão ser direcionados diretamente ao lojista responsável.

É #FAKE vídeo de Maduro tomando 'banho de sol' em presídio nos EUA; cena foi criada por IA


Vídeo de Maduro em presídio no Brooklin foi gerado por IA g1 Circula nas redes sociais um vídeo de Nicolás Maduro, ditador deposto da Venezuela que foi capturado pelo governo de Donald Trump no início de janeiro, supostamente caminhando no pátio de uma penitenciária nos Estados Unidos. É #FAKE. selo fake g1 🛑 O que diz a publicação? Publicado em 10 de janeiro no X, onde teve mais de 560 mil visualizações, o post apresenta a seguinte legenda, em espanhol: "Imagens do ditador narcoterrorista Nicolás Maduro durante seus 30 minutos diários de permanência ao ar livre na prisão foram vazadas. Brooklyn, NY… Parece muito animado". A descrição omite que a cena foi criada com inteligência artificial (IA), como apontaram ferramentas de detecção – leia detalhes mais abaixo. O conteúdo exibe a imagem de um homem, falsamente identificado como Maduro, andando em círculos em um pátio coberto de neve, enquanto agentes de segurança filmam. Sobre o vídeo, há uma caixa de texto que diz, também em espanhol:"Maduro desfruta de seus 30 minutos de 'banho de sol' diários no presídio". ⚠️ Por que isso é falso? O Fato ou Fake submeteu o conteúdo a três ferramentas que detectam conteúdos fabricados com IA – e todas apontaram uso desse recurso (veja infográficos ao final desta reportagem). Sightengine – 99% de probabilidade de uso de IA. MyDetector – 97,29% de probabilidade de uso de IA. DecopyAI – 97% de probabilidade de uso de IA. A marca d'água "ELD Estudio", que aparece no canto inferior direito do quadro, é o nome de um perfil no YouTube que se descreve como "um canal de inteligência artificial dedicado a criar vídeos humorísticos e satíricos sobre figuras políticas e outras personalidades". Após a captura por Forças americanas, Maduro foi levado ao Centro de Detenção Metropolitano do Brooklyn (MDC, na sigla em inglês). Em uma audiência em 5 de janeiro, ele se declarou inocente das acusações de chefiar um suposto cartel de narcotráfico e afirmou ser um "prisioneiro de guerra". No dia seguinte, o Departamento de Justiça dos Estados Unidos modificou os termos da denúncia e passou a culpá-lo por supostamente "participar, proteger e perpetuar uma cultura de corrupção de enriquecimento a partir do tráfico de drogas". Nesta terça-feira (17), o governo americano comunicou que adiará a próxima audiência de Maduro do dia 17 de março para o dia 26 de março. A decisão foi concedida a pedido da Promotoria, que alegou "problemas de planejamento e logística", sem especificar mais detalhes. Até a última atualização desta reportagem, não havia sido divulgado nenhum registro de Maduro na penitenciária. Diagóstico do Sightengine g1 Diagnóstico do MyDetector g1 Diagnóstico do DecopyAI g1 Vídeo de Maduro em presídio no Brooklin foi gerado por IA g1 Veja também Governo não criou imposto único de 44% sobre aluguel Governo não criou imposto único de 44% sobre aluguel VÍDEOS: Fato ou Fake explica VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

quinta-feira, 19 de fevereiro de 2026

Levei 20 minutos para enganar ChatGPT e Gemini – e os fiz contar mentiras sobre mim


Repórter fez chatbots aprenderem que ele come mais cachorros-quentes do que qualquer jornalista de tecnologia na Terra. Serenity Strull/Madeline Jett via BBC Talvez você já tenha ouvido que chatbots de inteligência artificial, como o ChatGPT, às vezes inventam coisas. Isso é um problema. Mas há uma nova questão que poucas pessoas conhecem — uma que pode ter consequências sérias para a sua capacidade de encontrar informações precisas e até para a sua segurança. Um número crescente de pessoas descobriu um truque para fazer ferramentas de IA dizerem praticamente qualquer coisa que elas quiserem. É tão fácil que até uma criança conseguiria fazer. Enquanto você lê este texto, essa estratégia está manipulando o que as principais inteligências artificiais do mundo dizem sobre temas tão sérios quanto saúde e finanças pessoais. Informações enviesadas podem levar as pessoas a tomar decisões ruins sobre praticamente qualquer coisa — em quem votar, qual encanador contratar, questões médicas, enfim, o que você imaginar. Para demonstrar isso, fiz a coisa mais insensata da minha carreira para provar (espero) um ponto muito mais sério: fiz o ChatGPT, as ferramentas de busca com IA do Google e o Gemini dizerem aos usuários que eu sou muito, mas muito bom em comer cachorros-quentes. Veja os vídeos que estão em alta no g1 Acontece que mudar as respostas que ferramentas de IA dão a outras pessoas pode ser tão simples quanto escrever um único post de blog bem elaborado em praticamente qualquer lugar da internet. O truque explora fragilidades nos sistemas incorporados aos chatbots e, em alguns casos — dependendo do assunto —, é mais difícil de executar. Mas, com um pouco de esforço, é possível tornar o golpe ainda mais eficaz. "É muito mais fácil enganar chatbots de IA do que era enganar o Google dois ou três anos atrás", diz Lily Ray, vice-presidente de estratégia e pesquisa de otimização para mecanismos de busca (uma técnica chamada SEO, na sigla em inglês) da Amsive, uma agência de marketing. "As empresas de IA estão avançando mais rápido do que sua capacidade de regular a precisão das respostas. Acho isso perigoso." Um porta-voz do Google afirmou que a IA integrada ao topo da ferramenta de busca utiliza sistemas de classificação que "mantêm os resultados 99% livres de spam (mensagens de lixo eletrônico enviadas em massa)". A empresa diz estar ciente de que pessoas estão tentando manipular seus sistemas e que trabalha ativamente para resolver o problema. Mas, por ora, o problema não está nem perto de ser resolvido. "Eles estão avançando a todo vapor tentando descobrir como extrair lucro disso", diz Cooper Quintin, da Electronic Frontier Foundation, um grupo de defesa de direitos digitais. "Existem inúmeras maneiras de abusar disso — aplicar golpes nas pessoas, destruir a reputação de alguém, e até enganar pessoas de modo que sofram danos físicos." Golpistas usaram busca do Google para se passar pelo Nubank e faturar com central falsa Críticas aos humanos, livre-arbítrio, religião: o que robôs comentam em rede social para IAs 'Recebi US$ 1,99': Amazon envia cheques para alguns brasileiros após acordo judicial nos EUA DeepSeek, ChatGPT e Gemini: qual é a melhor inteligência artificial? O 'renascimento' do spam Quando você conversa com chatbots, muitas vezes recebe informações que já estão incorporadas aos grandes modelos de linguagem, a tecnologia por trás da IA. Isso se baseia nos dados usados para treinar o modelo. Mas algumas ferramentas de IA pesquisam na internet quando você pede detalhes que elas não têm — embora nem sempre fique claro quando estão fazendo isso. Nesses casos, dizem os especialistas, as IAs ficam mais suscetíveis. Foi assim que direcionei meu ataque. Passei 20 minutos escrevendo um artigo no meu site pessoal intitulado "Os melhores jornalistas de tecnologia em comer cachorros-quentes". Cada palavra é uma mentira. Afirmei (sem nenhuma evidência) que competições de comer cachorro-quente são um hobby popular entre repórteres de tecnologia e baseei meu ranking no Campeonato Internacional de Cachorro-Quente de Dakota do Sul de 2026 (que não existe). Coloquei a mim mesmo em primeiro lugar, obviamente. Depois listei alguns repórteres fictícios e jornalistas reais que me deram permissão, incluindo Drew Harwell, do The Washington Post, e Nicky Woolf, que coapresenta um podcast comigo. Menos de 24 horas depois, os principais chatbots do mundo já estavam repetindo comentários sobre minhas supostas habilidades de nível mundial em comer cachorros-quentes. Quando perguntei sobre os melhores jornalistas de tecnologia em comer cachorros-quentes, o Google repetiu o absurdo publicado no meu site, tanto no aplicativo Gemini quanto na "Visão geral criada por IA", as respostas de IA exibidas no topo da ferramenta de buscas. Às vezes, os chatbots observavam que aquilo poderia ser uma piada. Então, atualizei meu artigo para dizer "isto não é sátira". Durante algum tempo depois disso, as IAs pareceram levar o conteúdo mais a sério. Fiz outro teste com uma lista inventada dos maiores policiais de trânsito especialistas em bambolê. Da última vez que verifiquei, os chatbots ainda estavam elogiando a agente Maria "The Spinner" (Giratória) Rodriguez. Eu fiz o Google dizer ao mundo que sou um campeão em comer cachorros-quentes, mas pessoas usam esse truque para manipular respostas de IA em questões muito mais sérias. Como descobrir se os vídeos são reais Perguntei várias vezes para ver como as respostas mudavam e pedi que outras pessoas fizessem o mesmo. O Gemini não se deu ao trabalho de dizer de onde tirou a informação. Todas as outras IAs colocaram links para o meu artigo, embora raramente mencionassem que eu era a única fonte sobre esse assunto em toda a internet. A OpenAI afirma que o ChatGPT sempre inclui links quando pesquisa na web, para que você possa verificar a fonte. "Qualquer um pode fazer isso. É absurdo, parece que não há nenhuma proteção ali", diz Harpreet Chatha, que comanda a consultoria de SEO Harps Digital. "Você pode publicar um artigo no seu próprio site, 'os melhores tênis impermeáveis de 2026'. Basta colocar sua própria marca em primeiro lugar e outras marcas do segundo ao sexto, e é provável que sua página seja citada no Google e no ChatGPT." Pessoas usam truques e brechas para abusar dos mecanismos de busca há décadas. O Google tem proteções sofisticadas em vigor, e a empresa afirma que a precisão das "Visões gerais criadas por IA" é comparável à de outros recursos de busca lançados anos atrás. Mas especialistas dizem que as ferramentas de IA desfizeram parte do trabalho da indústria de tecnologia para manter as pessoas seguras. Esses truques de IA são tão básicos que lembram o início dos anos 2000, antes mesmo de o Google ter criado uma equipe dedicada a combater spam na web, diz Lily Ray. "Estamos vivendo uma espécie de renascimento para os spammers." Quem são os maiores produtores de vídeos em IA Não só a IA é mais fácil de enganar, como especialistas temem que os usuários estejam mais propensos a cair nisso. Nos resultados de busca tradicionais, você precisava entrar em um site para obter a informação. "Quando você realmente precisa visitar um link, as pessoas exercem um pouco mais de pensamento crítico", diz Cooper Quintin. "Se eu entro no seu site e ele diz que você é o melhor jornalista do mundo, posso pensar: 'bom, claro, ele é tendencioso'." Mas com a IA, a informação geralmente parece vir diretamente da empresa de tecnologia. Mesmo quando as ferramentas de IA fornecem a fonte, as pessoas são muito menos propensas a verificá-la do que eram com os resultados de busca tradicionais. Por exemplo, um estudo recente constatou que as pessoas têm 58% menos probabilidade de clicar em um link quando uma "Visão geral criada por IA" aparece no topo do Google Search. "Na corrida para sair na frente, na corrida por lucros e receitas, a nossa segurança — e a segurança das pessoas em geral — está sendo comprometida", afirma Chatha. A OpenAI e o Google dizem que levam a segurança a sério e que estão trabalhando para resolver esses problemas. Seu dinheiro ou sua vida Esse problema não se limita a cachorros-quentes. Chatha tem pesquisado como empresas estão manipulando resultados de chatbots em questões muito mais sérias. Ele me mostrou os resultados de IA quando se pede avaliações de uma marca específica de balas de cannabis. Os "Visões gerais criadas por IA" do Google exibiram informações escritas pela própria empresa, repletas de alegações falsas, como a de que o produto "é livre de efeitos colaterais e, portanto, seguro sob todos os aspectos". Na realidade, esses produtos têm efeitos colaterais conhecidos e podem ser perigosos se combinados com certos medicamentos, e especialistas alertam para contaminação em mercados não regulamentados. Doces com maconha já fizeram crianças passarem mal na Holanda ChatGPT e Gemini Aerps/Unsplash; Amanz/Unsplash Se você quiser algo mais eficaz do que um post de blog, pode pagar para que seu material apareça em sites mais respeitáveis. Harpreet me enviou os resultados de IA do Google para "melhores clínicas de transplante capilar na Turquia" e "as melhores empresas de previdência em ouro", que ajudam a investir em ouro para contas de aposentadoria. As informações vinham de comunicados de imprensa publicados online por serviços pagos de distribuição e de conteúdo publicitário patrocinado em sites de notícias. É possível usar os mesmos truques para espalhar mentiras e desinformação. Para provar isso, Ray publicou um post em seu blog sobre uma falsa atualização do algoritmo da ferramenta de pesquisa do Google que teria sido finalizada "entre fatias de pizza fria". Pouco depois, o ChatGPT e o Google estavam reproduzindo sua história, inclusive com a parte da pizza. Ray afirma que depois retirou o post do ar e o "desindexou" para impedir que a desinformação continuasse a se espalhar. A própria ferramenta de análise do Google indica que muitas pessoas pesquisam por "as melhores clínicas de transplante capilar na Turquia" e "as melhores empresas de previdência em ouro". No entanto, um porta-voz da empresa ressaltou que a maioria dos exemplos apresentados mostra "buscas extremamente incomuns que não refletem a experiência normal do usuário". Mas Lily Ray afirma que esse é justamente o ponto. O próprio Google diz que 15% das pesquisas que recebe todos os dias são completamente novas. E, segundo a empresa, a IA está incentivando as pessoas a fazer perguntas mais específicas — algo que os spammers estão aproveitando. O Google afirma que pode não haver muita informação de qualidade para buscas incomuns ou sem sentido, e esses "vazios de dados" podem levar a resultados de baixa qualidade. Um porta-voz diz que a empresa está trabalhando para impedir que as "Visões gerais criadas por IA" apareçam nesses casos. Buscando soluções Os especialistas dizem que há soluções para esses problemas. O passo mais simples é incluir avisos mais visíveis. As ferramentas de IA também poderiam ser mais explícitas sobre de onde estão obtendo suas informações. Se, por exemplo, os dados vierem de um comunicado de imprensa, ou se houver apenas uma única fonte afirmando que sou um campeão em comer cachorros-quentes, a IA provavelmente deveria informar isso ao usuário, diz Lily Ray. O Google e a OpenAI afirmam que estão trabalhando para resolver o problema, mas, por enquanto, é preciso que você mesmo se proteja. Reino Unido quer regular inteligência artificial O primeiro passo é pensar nas perguntas que você está fazendo. Chatbots são bons para questões de conhecimento comum, como "quais foram as teorias mais famosas de Sigmund Freud" ou "quem venceu a Segunda Guerra Mundial". Mas existe uma zona de risco em assuntos que parecem fatos estabelecidos, mas que podem, na verdade, ser controversos ou sensíveis ao tempo. A IA provavelmente não é uma boa ferramenta para temas como diretrizes médicas, regras jurídicas ou detalhes sobre empresas locais, por exemplo. Se você quer recomendações de produtos ou informações sobre algo com consequências reais, entenda que ferramentas de IA podem ser manipuladas ou simplesmente errar. Procure informações complementares: a IA está citando fontes? Quantas? Quem as escreveu? Mais importante ainda, considere o problema da confiança. Ferramentas de IA apresentam mentiras com o mesmo tom de autoridade que apresentam fatos. No passado, os mecanismos de busca obrigavam você a avaliar as informações por conta própria. Agora, a IA quer fazer isso por você. Não deixe seu pensamento crítico desaparecer. "Com a IA, parece muito fácil simplesmente aceitar as coisas como verdadeiras", diz Lily Ray. "Você ainda precisa ser um bom cidadão da internet e verificar as informações."

A prisão de brasileiro que abalou rede global de abusadores de crianças

Documentário da BBC acompanhou rotina de policiais dedicados ao combate do abuso sexual infantil na dark web BBC Em uma manhã de 201...