quinta-feira, 5 de março de 2026

Youtuber diz não ter R$ 70 mil para pagar condenação por ridicularizar bebê e pede a juiz: 'Por favor, reconsidere'


Orochinho fez pronunciamento sobre condenação de R$ 70 mil Reprodução O influenciador digital Pedro Henrique Frade, conhecido como Orochinho, afirmou que não tem dinheiro para pagar a condenação de R$ 70 mil determinada pela Justiça e pediu que a decisão seja reavaliada. Ele também disse que algumas frases atribuídas a ele no processo foram retiradas do contexto. Orochinho, influenciador que tem mais de 4,5 milhões de inscritos no YouTube e 1,7 milhão de seguidores no Instagram, foi condenado pelo Tribunal de Justiça de São Paulo a indenizar uma bebê e a mãe dela por ridicularizar a imagem da criança em um vídeo, revelou o g1. O caso foi considerado encerrado pela Justiça em agosto, após o influenciador não se manifestar nos autos. Mas meses depois, ele apresentou defesa, disse que não recebeu a intimação judicial e pediu a anulação da sentença para se defender. A defesa do influenciador espera resposta da Justiça ao pedido para anular a sentença. Até o momento, ele segue condenado a pagar os R$ 70 mil com correção monetária e juros. LEIA MAIS: Youtuber é condenado em R$ 70 mil por ridicularizar bebê, alega não receber intimação de porteiro e pede para juiz anular decisão O g1 apurou que Orochinho está ansioso e muito apreensivo com o caso. Mas diante de seus seguidores, seguiu o tom de humor que adota rotineiramente em seus vídeos ao falar sobre o caso. O youtuber comentou publicamente sobre a condenação pela primeira vez durante live na noite da última segunda-feira (2). “Pelas manchetes faz parecer que eu faço bullying com bebê, mas acho que convém avisar que não é bem assim. Sou uma pessoa que respeita todo mundo. Amo crianças, amo bebês e amo a cultura das crianças”, disse. O youtuber fez um apelo em tom bem-humorado ao magistrado. “Você acha mesmo, meritíssimo, que eu não gosto dos bebezinhos? Você acha mesmo? Olha pra mim. Por favor, reconsidere. Não estou com esse dinheiro agora. Por favor, reconsidere”, disse, enquanto interagia com a barriga de uma grávida. Youtuber Orochinho é condenado em R$ 70 mil por ridicularizar bebê em vídeo ‘Catalisador de ofensas’ O vídeo que foi alvo do processo era uma reação a uma reportagem de televisão sobre o bebê que se tornou meme. A Justiça considerou que o conteúdo foi uma espécie de catalisador de ofensas que já vinham sendo feitas à criança nas redes. Na decisão, o juiz Ricardo Dal Pizzol, da 2ª Vara Cível do Tribunal de Justiça de São Paulo, afirmou que o youtuber demonstrou “ausência de qualquer empatia” ao fazer o vídeo, pois “em nenhum momento, preocupou-se com o efeito que poderia ter no futuro da menor, em sua autoestima e em seu círculo de convivência.” Orochinho comentou sobre esse ponto da decisão judicial. “Tudo bem, essa é a leitura da Justiça. Eu não sei se faltou empatia da minha parte. Talvez”, disse ele, que logo se corrigiu. “Não faltou (empatia), não faltou. Mas empatia é algo que a gente sente, não é algo que a gente fala”, declarou. Influenciador apareceu brincando com barriga de gestante durante pronunciamento Reprodução Ainda na condenação, o magistrado mencionou que o vídeo possui expressões ofensivas como “por*a do bebê", “quem gozou isso?”, "bebê tem de sofrer bullying", "ô desgraça feia", entre outras. O youtuber negou que tenha proferido todas as ofensas que foram mencionadas nos autos. “Na acusação contra mim foram atribuídas frases como se eu tivesse dito. Mas não foi isso que aconteceu. Eu não falei essas coisas. Eu estava lendo o que estava na tela”, disse. “Inclusive, em alguns momentos eu li a frase, aí cortaram essa parte da frente e ficou como se eu tivesse falado aquilo. É a mesma coisa que ler um comentário absurdo, criticar e alguém te processar e colocar como se você tivesse dito aquela frase”, acrescentou. “Isso aconteceu com diversas frases ali, não todas. Uma ou outra eu falei mesmo, mas não eram tantas assim”, disse Orochinho. A reportagem tentou contato com Orochinho, mas ele não respondeu aos pedidos para comentar o caso.

Ataque mira iPhones antigos para roubar dados financeiros; veja como se proteger


iPhone 14, lançado em 2022 Darlan Helder/g1 Modelos desatualizados de iPhone estão expostos a um ataque hacker que consegue tomar o controle do celular e roubar informações financeiras, alertou o Google na última terça-feira (3). Ele é realizado por meio de um kit de exploração batizado de Coruna, capaz de atacar modelos de iPhone entre o iOS 13.0 e o iOS 17.2.1. Essas versões foram lançadas em setembro de 2019 e dezembro de 2023, respectivamente. A recomendação é atualizar o iPhone para uma versão mais recente, fora do intervalo coberto pelo Coruna. Para atualizar o celular, clique em "Ajustes", selecione "Geral" e escolha a opção "Atualização de Software". O Coruna explora brechas no iPhone alertadas pela Apple em janeiro de 2024 e se infiltra no celular após serem carregados em sites maliciosos. Veja os vídeos que estão em alta no g1 Ataques realizados em 2025 hospedaram o arquivo em sites falsos de apostas e de criptomoedas, revelou o Grupo de Inteligência de Ameaças do Google (GTIG) (saiba mais abaixo). Após chegaram ao dispositivo da vítima, o Coruna tenta contornar barreiras de proteção do iPhone. Se conseguir, ele implementa o instalador PlasmaLoader, que obtém alto nível de permissão no sistema e varre o aparelho em busca de informações financeiras. O PlasmaLoader consegue buscar expressões como "conta bancária" no bloco de notas do celular, identificar o destino de QR codes presentes em imagens e roubar frases de recuperação de carteiras de criptomoedas. "O kit de exploração Coruna não é eficaz contra a versão mais recente do iOS", disse o Google. "Nos casos em que uma atualização não for possível, recomenda-se ativar o Modo de Isolamento para maior segurança". 💡 O Modo de Isolamento (também chamado de Lockdown Mode) do iPhone oferece uma proteção extrema para pessoas mais propensas a serem alvo de ataques cibernéticos. O Google disse ainda que adicionou os sites maliciosos à lista do Navegação Segura, iniciativa da empresa que impede o carregamento de páginas perigosas no Chrome. Ataques do Coruna em 2025 Os pesquisadores do Google identificaram o Coruna em fevereiro de 2025, quando ele foi usado em ataques direcionados por um cliente de uma empresa de vigilância. O kit de exploração buscava mais informações sobre o aparelho, como o modelo e a versão do iOS. Em seguida, carregava o código apropriado para a invasão. Ele foi usado por um grupo de espionagem russo contra pessoas na Ucrânia ao menos desde julho de 2025. Neste caso, o Coruna só era carregado se o site fosse acessado por usuários selecionados de iPhone em uma região específica. O uso mais recente revelado pelo Google foi feito por golpistas chineses, em dezembro de 2025. Eles usavam sites falsos sobre apostas e criptomoedas, mas alegavam que a página só poderia ser carregada no iOS. "Esta página foi otimizada apenas para dispositivos iOS. Acesse-a de um iPhone ou um iPad", dizia o alerta exibido em um dos sites. O usuário que seguia essa orientação era alvo do código do ataque. "Não está claro como essa proliferação ocorreu, mas isso sugere um mercado ativo para explorações de 'segunda mão'. Além dessas brechas identificadas, vários agentes de ameaças agora adquiriram técnicas avançadas de exploração que podem ser reutilizadas e modificadas com brechas recém-identificadas", disse o Google.

É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025


É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025 Reprodução Circula nas redes sociais um vídeo com imagens aéreas que supostamente mostra escombros de torres em Tel Aviv, em Israel, destruídos por mísseis. É #FAKE. selo fake g1 🛑 Como é o vídeo falso? Publicado netsa terça-feira (3) no X, onde teve mais de 620 mil visualizações, o post tem a seguinte legenda, em inglês: "Tel Aviv está assim em apenas 48 horas". Ela omite que se trata de algo criado com inteligência artificial (IA) – entenda abaixo. Na seção de comentários, usuários questionaram a veracidade do conteúdo, que viralizou em meio à guerra de Estados Unidos e Israel contra o Irã, iniciada no sábado (28). O presidente Donald Trump declarou que o principal objetivo seria destruir o programa nuclear iraniano. Embora o vídeo em questão seja falso, há registros reais de um ataque com mísseis que teve Tel Aviv como alvo. Uma ação no próprio sábado deixou ao menos um morto e 21 feridos. Edifícios, lojas e ruas sofreram danos. ⚠️ Por que isso é mentira? O Fato ou Fake submeteu o vídeo à plataforma Hive Moderation, que detecta conteúdos fabricados por IA. Resultado da análise: 99,9%% de probabilidade de esse recurso ter sido usado em toda a extensão do clipe (veja infográfico ao final desta reportagem). Em junho de 2025, o Fato ou Fake checou uma publicação que usou um conteúdo idêntico e circulou durante um conflito anterior entre Israel e Irã. A checagem já apontava que, ao longo do vídeo, é possível encontrar falhas típicas de cenas sintéticas: a partir do sexto segundo, o caminhão dos bombeiros do canto direito inferior se transforma em um carro branco (veja abaixo). Além disso, o letreiro de um dos prédios está em uma língua inexistente (indetectável por aplicativos de tradução automática), que apenas se assemelha ao hebraico. Caminhão de bombeiro "vira" carro g1 Para descobrir a origem da cena o Fato ou Fake utilizou a ferramenta InVID e fragmentou o material em diversos frames (imagens estáticas). Depois, fez uma busca reversa por essas "fotos" no Google Lens. Essa pesquisa serve se esse registro já havia sido anteriormente publicado na internet – em que contexto. O resultado levou a um vídeo de 16 segundos publicado em 14 de junho do ano passado no TikTok. O perfil cita o termo "resistência da inteligência artificial". Nos dias 26 e 27 de maio, ele já havia publicado conteúdos que, supostamente, exibia áreas residenciais destruídas em Tel Aviv – sendo que, naquela data, Israel e Irã não estavam em conflito armado. O Fato ou Fake submeteu o vídeo à ferramenta de verificação Hive Moderation, que apontou 99,9%% de probabilidade de uso de IA em toda a extensão do clipe. Reprodução É #FAKE vídeo que mostra torres destruídas em Tel Aviv; cenas foram geradas por inteligência artificial e já viralizaram em 2025 Reprodução Veja também O que é #FATO e o que é #FAKE na guerra entre EUA e Irã O que é #FATO e o que é #FAKE na guerra entre Estados Unidos e Irã no Oriente Médio VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Como descobrir câmeras escondidas em tomadas e espelhos usando o celular


Câmera escondida: Veja como se identificar Não são raras as histórias de pessoas que encontram câmeras escondidas em espaços de grande circulação. Em um caso recente, uma mulher encontrou o dispositivo escondido no banheiro da empresa em que ela trabalha, em Içara (SC). A gravação de imagens sem autorização pode configurar crime, ainda que seja for feita para fins de segurança. O Código Penal prevê pena de 6 meses a 1 ano de detenção, além de multa, para quem gravar cenas íntimas sem o conhecimento de quem está nelas. Não existe uma forma simples de garantir que um local esteja completamente livre de câmeras escondidas. Mas o celular pode ser um aliado para diminuir os riscos. Funcionária encontra microcâmera em banheiro da empresa em Içara PMSC/Divulgação Especialistas recomendam seguir um passo a passo para checar a segurança de quartos e banheiros. A prática pode ser inviável no dia a dia por conta de tantos locais visitados, mas é útil se você ficar por muito tempo em um novo local, como um quarto de hotel. "A pessoa pode verificar a lâmpada, as tomadas, os relógios [para procurar equipamentos acoplados]. Todo equipamento eletrônico que tem energia elétrica ou que não deveria estar naquele lugar pode ser verificado", disse o especialista em cibersegurança Alexandre Armellini ao g1 em uma reportagem de 2024. Confira dicas abaixo. 1ª dica: procure reflexos de lentes de câmeras Vitória Coelho/Arte g1 Com o quarto mais escuro possível, ligue a câmera do celular com o flash ativado e olhe pela tela para ver se a luz está refletindo pequenos pontinhos em lugares incomuns, como detectores de fumaça ou luminárias – esse reflexo pode revelar a presença de uma lente de câmera. 2ª dica: busque luzes infravermelhas Vitória Coelho/Arte g1 Ainda no ambiente escuro, com a câmera do celular e o flash desligado, veja se você encontra uma pequena luz roxa piscando no quarto. Ela pode indicar a existência de uma câmera capaz de registrar imagens no escuro. 3ª dica: confira as tomadas Vitória Coelho/Arte g1 Use equipamentos como o carregador de celular para testar a instalação elétrica do quarto – se as entradas forem do mesmo padrão que o plugue do equipamento e não for possível conectá-lo à tomada, ela foi possivelmente adulterada. 4ª dica: verifique os espelhos Vitória Coelho/Arte g1 Aponte a lanterna do celular para espelhos em busca de pontos transparentes. Toque nos vidros para conferir, pelo barulho, se eles estão ocos, o que pode ser um indício de que existam equipamentos embutidos – essa técnica de espionagem exige um espaço considerável atrás dos espelhos, então, diz respeito aos que estão colocados em molduras ou caixas que os distanciam da parede. O que fazer além disso? Na busca por câmeras, concentre-se em locais em que elas poderiam, de fato, ser escondidas. É o caso de pontos mais altos e nos cantos do quarto, bem como os que estão próximos a tomadas e que possam ficar "camuflados" atrás da decoração, por exemplo. Também é importante checar acessórios que possam ser emprestados pelo estabelecimento, como carregadores de celular. Eles podem ter uma pequena luz, onde é possível manter uma câmera acoplada. Mas, ainda que as câmeras sejam discretas, elas não chegam a ser microscópicas. As lentes podem caber no buraco da tomada, mas, por trás, elas chegam a ter o tamanho de uma moeda, explicou Hugo Bernardes, mestre em engenharia eletrônica. "Não existem câmeras muito pequenas de fácil acesso. As câmeras minúsculas custam muito caro. Então, o que se encontram são câmeras um pouco maiores com um circuito de alimentação. Podem até existir câmeras com bateria, mas elas duram pouco", afirma. Segurança, mas sem paranoia É possível ir ainda além e usar ferramentas que identifiquem dispositivos que estão usando o Wi-Fi ou comprar acessórios como detectores de radiofrequência para buscar câmeras escondidas. Mas, como os métodos podem conter informações técnicas, eles podem mais confundir do que ajudar. A busca por emissões de frequência também pode ser prejudicada pela presença de outros aparelhos, diz Bernardes. "O seu celular já emite radiofrequência, bem como um notebook, uma lâmpada inteligente, o Wi-Fi e o próprio rádio". E, apesar das medidas de segurança, a orientação é evitar que a preocupação estrague o momento de lazer. Isso porque não é possível ter 100% de certeza de que a acomodação ou qualquer outro espaço público esteja sendo vigiado. "Temos que tomar muito cuidado para não ir para o lado da paranoia. Senão, ninguém mais tem vida", disse Armellini. Funcionária encontra microcâmera em banheiro da empresa em Içara

É #FAKE vídeo de menino chorando diante de caixão de soldado americano morto no Irã; cena foi criada com inteligência artificial


É #FAKE vídeo de menino chorando diante de caixão de soldado americano morto no Irã; cena foi criada com inteligência artificial Reprodução Circula nas redes sociais um vídeo que supostamente mostra um menino chorando diante do caixão do pai, que seria um soldado dos Estados Unidos morto no Irã. É #FAKE. g1 🛑 Como é o vídeo? Publicado nesta quarta-feira (4) no X, o post tem a seguinte legenda, em espanhol: "Isso é o que foi ocasionado por #Netanyahu e #Donald_J_Trump, supostamente o pacificador do mundo, o que exigiu o prêmio Nobel da Paz [...]". O vídeo mostra um menino chorando e abraçando um caixão coberto por uma bandeira dos americana. A criança diz, em inglês: "Meu papai, não!". Uma mulher o abraça e fala: "Meu filho, não chore, seja forte como seu pai". Ao redor, há militares em fileira observando a cena. O post omite que o material foi produzido com inteligência artificial (IA) — leia mais abaixo. Na seção de comentários, usuários perguntaram ao Grok, chatbot de IA do X, se o conteúdo era real ou sintético. O conteúdo viralizou dois dias após depois de os EUA terem confirmado a morte de seis militares americanos no conflito com o Irã. A guerra começou no sábado (28), após um ataque que também teve participação de Israel. O presidente Donald Trump declarou que o principal objetivo seria destruir o programa nuclear iraniano. ⚠️ Por que isso é falso? O Fato ou Fake submeteu o vídeo ao HiveModeration, ferramenta de detecção de conteúdos produzidos com IA. Resultado: 99,9% de probabilidade de o material ter sido criado com esse recurso (veja infográfico ao final desta reportagem). Além disso, a cena apresenta sinais de manipulação. As mãos do garoto e a perna da mulher aparecem distorcidas no início da gravação (veja abaixo). Vídeo de IA tem sinais de distorção. Reprodução HiveModeration aponta uso de IA em vídeo. Reprodução É #FAKE vídeo de menino chorando diante de caixão de soldado americano morto no Irã; cena foi criada com inteligência artificial Reprodução Veja também O que é #FATO e o que é #FAKE na guerra entre EUA e Irã O que é #FATO e o que é #FAKE na guerra entre Estados Unidos e Irã no Oriente Médio VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica . .. É #FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Anthropic retoma conversa com os EUA sobre uso militar de sua IA, diz jornal

Entenda embate entre governo dos EUA e Claude, rival do ChatGPT A Anthropic, empresa que criou o assistente de inteligência artificial Claude, retomou a conversa com o governo dos Estados Unidos sobre o uso militar de suas ferramentas, revelou nesta quinta-feira (5) o jornal Financial Times. O acordo voltou a ser discutido depois de um impasse na última semana sobre como modelos da Anthropic poderiam ser usados pelas Forças Armadas dos EUA. A empresa não quer que elas sirvam para vigilância em massa de cidadãos e sistemas de armamento autônomos, por exemplo. Mas o governo americano quer que eles sejam usados para qualquer finalidade "lícita". Sem um acordo, o presidente americano Donald Trump determinou na sexta-feira (27) que agências federais do país interrompessem o uso de programas de IA da Anthropic. O secretário de Guerra de Trump, Pete Hegseth, ameaçou classificar a empresa como um risco para a cadeia de fornecimento, o que forçaria empresas do ramo militar a cortar laços com a empresa. Mesmo com a ordem contrária, os EUA usaram o Claude na ofensiva militar contra o Irã, segundo o The Wall Street Journal. O assistente costuma ajudar o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha Agora, com um possível acordo, militares americanos poderiam voltar a usar livremente modelos de inteligência artificial da Anthropic, e a empresa correria menos risco de ser considerada um risco. A rival OpenAI, dona do ChatGPT, também poderia ter os planos afetados depois de anunciar na última semana um acordo que liberou o uso de seus modelos de IA pelo Pentágono. Avaliada em US$ 380 bilhões, a Anthropic foi a primeira a assinar um contrato com a defesa dos EUA para uso de modelos de IA para fins militares. O acordo de US$ 200 milhões foi firmado em julho de 2025 e, depois, foi assinado com outras empresas como a OpenAI e o Google. LEIA TAMBÉM: Irã tem novo apagão de internet em meio a conflito com EUA e Israel 'Não dá pra viver sem VPN': como brasileiros na Rússia driblam restrições às redes sociais 'Crise da memória' deve fazer venda de celulares ter maior queda da história em 2026

X suspenderá monetização de vídeos de guerra feitos com IA sem aviso


Grok: ferramenta gratuita da rede social X é usada para criar imagens íntimas falsas A rede social X anunciou, nesta terça-feira (3), que suspenderá por 90 dias do programa de distribuição de receitas os criadores que compartilharem vídeos de conflitos armados sem revelar que foram produzidos com inteligência artificial (IA). É #FAKE vídeo de jato de Israel explodindo ao ser abatido no Kuwait; cena foi criada com inteligência artificial É #FAKE imagem de satélite que mostra antes e depois de ataque a base dos EUA no Catar; conteúdo foi manipulado com IA A mudança de política, anunciada por um executivo da empresa de Elon Musk, busca combater o que a companhia descreveu como uma ameaça à informação autêntica em meio à guerra dos Estados Unidos e Israel contra o Irã. Acompanhe a cobertura do conflito em tempo real "Em tempos de guerra, é fundamental que as pessoas tenham acesso a informações autênticas sobre o que acontece no terreno", disse Nikita Bier, diretor de produto do X. Ele acrescentou que as tecnologias atuais de IA "banalizam a criação de conteúdo que engana as pessoas". Já na segunda-feira, o X havia dito que "continuaria aperfeiçoando" suas políticas e produtos para garantir que a rede social "seja confiável durante esses momentos críticos". A nova regra de transparência sobre IA representa uma guinada para a plataforma, que vem sendo fortemente criticada por suas políticas de moderação de conteúdo desde que Musk adquiriu o Twitter em 2022 e o transformou no X. Com as novas disposições, reincidentes estarão sujeitos à suspensão permanente do programa de participação de criadores nas receitas, que paga a determinados usuários uma parte das receitas de publicidade geradas por suas publicações. As infrações serão detectadas por meio das Notas da Comunidade (um sistema colaborativo para adicionar contexto a publicações potencialmente enganosas), bem como por meio de metadados e outros sinais técnicos incorporados ao conteúdo gerado com IA. VEJA TAMBÉM EUA reforçam que irão intensificar ataques contra o Irã

Youtuber diz não ter R$ 70 mil para pagar condenação por ridicularizar bebê e pede a juiz: 'Por favor, reconsidere'

Orochinho fez pronunciamento sobre condenação de R$ 70 mil Reprodução O influenciador digital Pedro Henrique Frade, conhecido como O...