sábado, 31 de janeiro de 2026

As previsões sobre inteligência artificial de 70 anos atrás que são realidade hoje


Joseph Weizenbaum, criador do primeiro chatbot, Eliza, de 1966. Getty Images via BBC Recorrer a um chatbot (como o ChatGPT, Gemini ou Claude) em busca de terapia, ou até mesmo de um novo amigo, pode soar como uma história controversa dos nossos tempos, coisa do século 21. Mas não é uma questão exatamente inédita. Desde os anos 1950, a trajetória da inteligência artificial tem sido marcada pelos mesmos dilemas: medo de que máquinas substituam humanos, a tendência de humanizar a tecnologia, o apego emocional que muitas pessoas desenvolvem por ela e as promessas ambiciosas que raramente se cumprem — mas que continuam a atrair investimentos e atenção. O cenário do século passado e de agora são diferentes, no entanto, em um aspecto principal: o tanto de dinheiro e recursos que se está investindo nessas tecnologias nos dias atuais. Veja os vídeos que estão em alta no g1 "Existe uma diferença de que hoje estamos em um contexto do capital financeiro e dos investimentos que essas empresas atraem, o espaço que elas conseguem junto a governos", disse à BBC News Brasil Bernardo Gonçalves, pesquisador de inteligência artificial, filósofo e tecnologista do Laboratório Nacional de Computação Científica (LNCC). "Mas as questões, eu diria que são as mesmas", completa. Em entrevista à reportagem, Gonçalves fez um resgate dos debates históricos em torno da inteligência artificial, de momentos em que cientistas projetaram o futuro e os problemas da IA — muitos debates que ainda permanecem vivos. Confira alguns deles a seguir. O apego emocional às máquinas A tendência de tratar máquinas como pessoas Máquinas para ajudar os humanos ou substituí-los? 'São tecnologias que deslocam poder' O ciclo de promessas e frustrações com a IA Para Bernardo Gonçalves, pesquisador de inteligência artificial, questões sobre a IA permanecem as mesmas há mais de 50 anos. Arquivo pessoal via BBC O apego emocional às máquinas O professor do MIT e cientista Joseph Weizenbaum criou um programa, ainda na década de 60, que é hoje considerado o primeiro chatbot a se tornar conhecido no mundo. Batizado de Eliza, o programa rodava em um computador IBM 7094, uma máquina de grande porte, que à época custava milhões de dólares, e era capaz de simular conversas. O programa seguia um conjunto de regras pré-definidas para analisar o que era digitado e responder de forma automática. No fundo, a máquina não entendia o que estava sendo dito, mas imitava uma conversa. Em um dos testes, Weizenbaum programou Eliza para agir como uma terapeuta. O chatbot reformulava o que o "paciente" dizia, transformando frases em perguntas, o que criava a ilusão de diálogo. PACIENTE: Meu namorado me fez vir aqui. ELIZA: Seu namorado te fez vir aqui. PACIENTE: Ele diz que estou deprimida a maior parte do tempo. ELIZA: lamento que você esteja deprimida. Naquela época, como relatou Weizenbaum em um capítulo de livro, alguns pesquisadores começaram a prever que, no futuro, máquinas poderiam oferecer terapia de verdade, até mesmo em hospitais. O próprio criador da tecnologia se espantou com essa possibilidade. "Sem dúvida há técnicas para facilitar a projeção do terapeuta na vida do paciente. Mas que fosse possível a um psiquiatra defender que esse componente crucial do processo terapêutico pudesse ser substituído, isso eu não tinha imaginado", escreveu. O interesse por Eliza era tanto que, certa vez, sua secretária pediu que ele saísse da sala para poder ter uma conversa particular com o programa. "Por mais inteligentes que as máquinas possam vir a ser, há certos atos de pensamento que devem ser tentados apenas por seres humanos", disse ele no livro Computer Power and Human Reason, em 1976. Clique aqui para voltar ao início. A tendência de tratar máquinas como pessoas Turing questionava se máquinas podem pensar e antecipou críticas da época, publicadas em jornais ingleses. Getty Images via BBC No artigo considerado pioneiro na discussão sobre inteligência artificial, Computing Machinery and Intelligence (1950), o cientista britânico Alan Turing propôs a pergunta que ecoa até hoje: as máquinas podem pensar? Antecipando objeções que já circulavam na imprensa britânica, Turing reuniu no artigo algumas das críticas mais comuns. Havia as teológicas, segundo as quais "pensar é uma função da alma imortal do homem", e as filosóficas, que argumentavam que "somente quando uma máquina for capaz de escrever um soneto ou compor um concerto a partir de pensamentos e emoções sentidos — e não pela simples combinação de símbolos — poderemos concordar que ela é igual ao cérebro humano". Talvez tenha sido essa última objeção, sobre a consciência e a criação genuína, a que mais inquietou seus contemporâneos. O pesquisador Bernardo Gonçalves lembra que esses críticos diziam que os termos usados por Turing, que faziam alusões ao cérebro ou ao pensamento humano, eram inadequados. "O Turing já tinha sido exposto como uma pessoa que estimulava o uso de certos termos que outros eram contra, como cérebro eletrônico ou se referir à capacidade de armazenamento de uma máquina como memória." Anos depois da publicação do artigo de Turing, uma conferência na Dartmouth College, em 1956, ficaria conhecida como o momento de nascimento do termo "inteligência artificial". E o conceito tentou evitar justamente essa definição que mistura máquinas e mentes humanas. "Eles definiram o campo como: máquinas que se comportam de tal forma que, se fosse um humano, seria dito que são inteligentes", lembra Gonçalves. "Essa tradição de antropomorfizar continua até hoje, impulsionada por histórias de Hollywood que combinam a ideia de IA com antigas representações de criações humanas, que de repente ganham vida", afirma a jornalista Karen Hao em seu livro Império da AI (Empire of AI), que conta a história e os bastidores da criação e evolução da OpenAI, empresa responsável pelo ChatGPT. "Desenvolvedores de IA falam com frequência sobre como seus softwares aprendem, leem ou criam, como os humanos. Isso não só alimentou a percepção de que as tecnologias atuais de IA são muito mais capazes do que realmente são, como também se tornou uma ferramenta retórica para que empresas evitem responsabilidade legal", argumenta, citando exemplos de artistas e escritores que processaram essas empresas por não terem dado consentimento de uso de suas obras para treinar os modelos de linguagem. Gonçalves avalia que a crítica de Karen Hao é muito semelhante à feita nos anos 50. Ele lembra de um debate entre Turing e o matemático Douglas Hartree na década de 40, que já foi tema de um de seus artigos. Em outubro de 1945, poucos meses após o fim da 2ª Guerra Mundial, Alan Turing foi contratado pelo Laboratório Nacional de Física britânico (National Physical Laboratory, ou NPL) para liderar o projeto de construção de uma máquina de computação. A iniciativa buscava consolidar a posição do Reino Unido na corrida tecnológica que emergia do pós-guerra. O projeto recebeu o nome de Automatic Computing Engine (ACE) e se tornaria um dos primeiros computadores eletrônicos programáveis da história. Era um momento em que governos e cientistas começavam a vislumbrar usos civis e militares para essas novas máquinas capazes de armazenar instruções em memória, avanço decisivo em relação aos computadores criados durante o conflito. "Depois da guerra se constroem os computadores capazes de armazenar um programa em memória", lembra Gonçalves. "Havia interesse em financiar esses projetos no contexto militar". Clique aqui para voltar ao início. Máquinas para ajudar os humanos ou substituí-los? Tradição de antropomorfizar IA continua até hoje, diz a jornalista Karen Hao, autora do livro Empire of AI. BBC Na proposta apresentada ao NPL, Turing incluía algumas das suas primeiras reflexões sobre o futuro da computação. Entre elas, a ideia de que máquinas poderiam aprender tarefas complexas, como jogar xadrez. Já Douglas Hartree era considerado um dos principais especialistas em computação do Reino Unido e se tornaria membro do comitê executivo do próprio Laboratório Nacional de Física (NPL). Enquanto Turing olhava para o futuro filosófico das máquinas, tentando compreender se elas poderiam, um dia, pensar, Hartree mantinha a cabeça na aplicação prática daquelas invenções. Em 1946, ele publicou um artigo na revista Nature advertindo para o uso exagerado de metáforas humanas ao descrever computadores. "Parece-me que a distinção é importante e que o termo cérebro eletrônico a obscurece e é enganoso, pois atribui à máquina capacidades que ela não possui; e é por isso que espero que o uso desse termo seja evitado no futuro", escreveu. Hartree temia que expressões como essa criassem a ilusão de que as máquinas pudessem replicar a mente humana, confusão que desviaria a atenção do verdadeiro propósito da computação: o de ampliar a capacidade de cálculo e auxiliar o raciocínio humano, não substituí-lo. Turing chegou a prever que seria tão fácil fazer uma pergunta a uma máquina quanto a uma pessoa no futuro. Hartree, por outro lado, via nesse entusiasmo um risco moral e político: acreditava que desprezar a razão humana e superestimar a das máquinas poderia abrir caminho para formas de autoritarismo, como aquelas que a Europa acabara de testemunhar. Turing, vale lembrar, ajudou os Aliados e teve papel-chave na guerra, ao quebrar o código secreto nazista, que permitiu ler as mensagens navais alemãs cifradas com a máquina Enigma. Clique aqui para voltar ao início. Uma máquina de criptografia Enigma modelo I é vista em Bletchley Park, perto de Milton Keynes, ao norte de Londres, em 26 de outubro de 2023 Getty Images via BBC 'São tecnologias que deslocam poder' Para o pesquisador Bernardo Gonçalves, as disputas em torno da inteligência artificial têm a ver com o poder e quem irá exercê-lo. "Por que temos controvérsia? Essa analogia com o humano, no fundo, é uma expansão do espaço da máquina na sociedade, que vai impactar no espaço do humano. Por exemplo, no que é um posto de trabalho", diz. A própria história da computação, destaca Gonçalves, mostra como essas transformações sempre tiveram efeitos sociais concretos. Nos anos 1940 e 1950, o termo "computador" ainda designava pessoas, em especial mulheres, que realizavam cálculos complexos. "Temos aí uma informação histórica que funciona como uma cápsula do tempo. A própria profissão de computador foi extinta pela construção dessas máquinas", explica. Com o avanço da automação, essas tecnologias passaram a concentrar poder e alterar estruturas de trabalho. "Estamos falando de coisas que têm uma repercussão social muito forte e clara", afirma. "São tecnologias de automação que deslocam poder, fazem impacto na vida das pessoas, na economia." Clique aqui para voltar ao início. O ciclo de promessas e frustrações com a IA O CEO da OpenAI, Sam Altman, testemunha perante a Comissão do Senado para o Comércio, Ciência e Transportes no Senado americano. Getty Images via BBC Nos anos 1970, o Reino Unido viveu um "inverno da IA", após o matemático James Lighthill publicar um relatório afirmando que o campo "vivia de especulações sem fundamento". "Faz-se todo um glamour, mas não se alcançam esses resultados. Promete-se ir muito longe", afirma Gonçalves. "Alguns pesquisadores começaram a dizer: a gente precisa parar de prometer tudo isso, porque depois isso queima a área." Hoje, segundo ele, o ciclo se repete, agora impulsionado por empresas de tecnologia com alcance global e orçamentos bilionários. "A polarização é tão forte que parece que ou esses sistemas vão logo se transformar em superinteligências e tomar o poder, ou são burros, estúpidos, meros papagaios estocásticos. Mas, na verdade, a área segue se desenvolvendo." Mesmo com o ceticismo de parte da comunidade científica, Gonçalves destaca que o poder econômico e político dessas corporações sustenta o ritmo das inovações. "Desde 2022, quando surge o ChatGPT, esses sistemas vêm melhorando. E aí não estou falando do que se promete, mas do que de fato se observa." "É um tipo de pesquisa que, se bem-sucedida, tem impacto muito grande. Você poder automatizar mais e mais atividades intelectuais, de escritório, que foram as mais preservadas da automação das primeiras revoluções industriais, que eram mais mecânicas", diz. Clique aqui para voltar ao início.

sexta-feira, 30 de janeiro de 2026

Táxi-robô da Waymo, do Google, atropela criança perto de escola e vira alvo de investigação nos EUA


g1 testa o Waymo, o carro autônomo do Google, nos Estados Unidos Um táxi-robô autônomo da Waymo, empresa da Alphabet (dona do Google), atropelou uma criança perto de uma escola primária na Califórnia (EUA) nesta quinta-feira (29). A criança sofreu ferimentos leves. Cerca de uma semana depois, nesta quinta-feira (29), a Administração Nacional de Segurança Rodoviária (NHTSA) dos EUA informou que abriu uma investigação sobre o caso. O Conselho Nacional de Segurança nos Transportes (NTSB) também anunciou que investigará o incidente. Em publicação no blog oficial, a Waymo afirmou que vai cooperar com as investigações e disse que o veículo detectou rapidamente a criança e freou bruscamente (veja mais abaixo). O caso reacendeu preocupações sobre a segurança dos táxis-robôs, cujo número vem crescendo nos Estados Unidos. O Comitê de Comércio do Senado americano já tinha marcado para 4 de fevereiro uma audiência sobre carros autônomos, com a participação do diretor de segurança da Waymo, Mauricio Peña. 🚸 Como foi o incidente Segundo a agência de segurança de trânsito dos EUA, a criança atravessou a rua correndo em direção à escola, surgindo por trás de um SUV estacionado em fila dupla. O atropelamento ocorreu durante o horário de entrada e saída dos alunos. A agência informou que havia outras crianças, um guarda de trânsito e vários veículos estacionados em fila dupla na região. A Waymo afirmou que a criança “entrou repentinamente na via por trás de um SUV alto, movendo-se diretamente para a trajetória do veículo”. Segundo a empresa, o carro autônomo detectou a criança assim que ela apareceu e reduziu a velocidade de cerca de 27 km/h para menos de 10 km/h antes do impacto. A Waymo afirmou ainda que simulações indicam que um motorista humano totalmente atento, na mesma situação, teria atingido o pedestre a cerca de 22 km/h. Veículo autônomo da Waymo em Los Angeles, na Califórnia Alexandre Lopes/g1 Santos Após a colisão, segundo a empresa, a criança se levantou, caminhou até a calçada e a Waymo acionou o serviço de emergência 911. O veículo permaneceu parado e só deixou o local após liberação da polícia. A NHTSA iniciou uma avaliação preliminar para apurar se o veículo operava com cautela adequada, considerando a proximidade com a escola e a presença de pedestres vulneráveis. A agência disse que vai analisar o comportamento esperado do veículo em zonas escolares, incluindo respeito aos limites de velocidade, além da resposta da empresa após o impacto. No mesmo dia do acidente, o NTSB abriu outra investigação envolvendo a Waymo após robôs-táxi da empresa ultrapassarem ônibus escolares parados em Austin, no Texas, pelo menos 19 vezes desde o início do ano letivo. Em dezembro, a Waymo fez recall de mais de 3 mil veículos para atualizar o software que permitia ultrapassagens indevidas de ônibus escolares durante embarque e desembarque de alunos — situação que aumenta o risco de acidentes. A NHTSA já havia aberto uma investigação sobre o tema em outubro. A Waymo afirmou que não houve colisões nesses casos. O Distrito Escolar Independente de Austin informou que cinco incidentes ocorreram em novembro, mesmo após atualizações de software. O sistema escolar chegou a pedir que a empresa suspendesse as operações perto das escolas nos horários de entrada e saída dos alunos, mas disse à Reuters que a Waymo recusou o pedido. Veja mais: Como é viver nas cidades com tecnologia mais avançada do mundo Após investigação, estado americano acusa Meta de facilitar exploração infantil

Powerbank explode em voo e levanta alerta: veja regras e riscos


Avião da Latam faz pouso monitorado após explosão com carregador portátil Um avião da Latam precisou desviar a rota nesta quinta-feira (29) após um powerbank (bateria recarregável portátil usada para carregar celulares) explodir a bordo. O caso chama atenção para os riscos envolvendo baterias eletrônicas e se soma a outros incidentes semelhantes já registrados. O voo saiu de São Paulo (SP) com destino a Brasília (DF), mas precisou pousar em Ribeirão Preto (SP). Por causa do susto, pelo menos três passageiros passaram mal e foram atendidos ainda na pista após o pouso. Nenhum deles precisou ser encaminhado para hospitais. Outro caso parecido aconteceu em agosto de 2025, quando um carregador portátil pegou fogo em um avião que fazia o trajeto entre São Paulo e Amsterdã. Vídeos publicados nas redes sociais mostraram o interior da aeronave tomado por fumaça (veja abaixo). Carregador pega fogo dentro de avião para Amsterdã em agosto de 2025 Especialistas explicam que incidentes com baterias de íon de lítio — usadas em celulares, notebooks e powerbanks — são raros. Ainda assim, podem acontecer e existem regras específicas da Agência Nacional de Aviação Civil (Anac) para reduzir perigos durante o transporte desses equipamentos. Mas, afinal, como essas explosões acontecem? Quais são as regras da Anac? O risco é maior dentro de um avião? E como prevenir? Veja as respostas abaixo. Quais são as regras da Anac? Powerbank Freepik/xb100 A Anac determina regras específicas para viagens de avião com carregadores portáteis, baterias externas e powerbanks: ➡️​ Bagagem despachada: não é permitido ➡️​Bagagem de mão: permitido, desde que respeite os limites de capacidade e as regras de segurança. Confira: até 100 Wh: permitido entre 100 Wh e 160 Wh: permitido, no máximo duas unidades por dispositivo, com aprovação prévia da companhia aérea. ⚠️​Nos casos permitidos, as baterias devem ser transportadas com proteção individual, como em embalagens originais ou com os terminais isolados (por exemplo, tampando os terminais expostos ou colocando cada bateria em saco plástico ou bolsa de proteção separada). 🔎​ Mas como saber se a bateria está dentro do limite? Normalmente, a capacidade de armazenamento de energia aparece na descrição do aparelho. Mas muitos fabricantes mostram essa medida em mAh (miliampère-hora), que é diferente de Wh (watt-hora) — unidade usada pela Anac. Segundo especialistas, para converter entre as duas unidades é preciso considerar também a voltagem da bateria, que costuma ser de cerca de 3,7 V em powerbanks e celulares — mas esse valor pode variar. Para ter uma noção, considerando essa voltagem média, é possível fazer uma aproximação: 100 Wh ≈ cerca de 27.000 mAh 160 Wh ≈ cerca de 40.000 mAh 🔥 Segundo especialistas, a capacidade da bateria influencia principalmente a intensidade de um eventual incêndio, e não necessariamente a chance de ele acontecer. Quanto maior a energia armazenada, maior pode ser o tamanho e a dificuldade de controlar o fogo. ✈️Baterias têm mais chance de explodir em um avião? Não. Baterias de íon de lítio — as mais usadas em celulares, notebooks e powerbanks — têm a mesma chance de explodir em solo ou durante um voo, segundo Kim Rieffel, vice-presidente de Telecomunicações da Associação Brasileira de Infraestrutura da Qualidade (Abriq). “Não há nada na ciência que mostre que as baterias de íon de lítio tenham mais risco de explosão em um avião”, afirma. Na verdade, os principais fatores de risco para esse tipo de ocorrência são temperatura elevada e choque físico (como quedas). “Esses tipos de situação podem bagunçar o sistema interno de energia da bateria e causar curto-circuitos, que podem gerar explosões”, afirma Rieffel. ➡️ Por isso, a Anac proíbe baterias na bagagem despachada, segundo ele. No compartimento de carga, há menos controle sobre variações de temperatura e sobre impactos mecânicos. ➡️ Além disso, aparelhos não homologados pela Anatel tendem a apresentar maior risco de explosão, segundo especialistas. “Possivelmente, é uma característica de um equipamento que não foi produzido com os requisitos de segurança e os aspectos que tornem a operação dele segura. O problema está nas partes que constituem o powerbank”, explica Fábio Delatore, professor de Engenharia Elétrica do Instituto Mauá de Tecnologia. Por isso, especialistas recomendam que consumidores priorizem powerbanks, celulares e carregadores homologados pela Anatel. “A recomendação é buscar bons fabricantes e desconfiar de produtos muito baratos”, afirma Delatore. Outros casos de explosão de eletrônicos em aviões Bateria de lítio provoca incêndio em voo da Air China e avião faz pouso de emergência Em outubro de 2025, a explosão de uma bateria de lítio provocou um incêndio em um voo da Air China que seguia de Hangzhou, na China, para Seul, na Coreia do Sul. Segundo a companhia aérea, a tripulação controlou a situação rapidamente e não houve feridos. Veja vídeo acima. Carregador portátil explode em voo, e passageiros tentam conter fogo  Já em março de 2025, um carregador de celular pegou fogo dentro de um avião durante um voo em Hong Kong. Passageiros usaram água para ajudar a conter as chamas. Ninguém ficou ferido. Veja imagens acima. Veja mais: Demissão de 16 mil pessoas na Amazon também afeta o Brasil: 'Assustador', diz ex-funcionário Ex-engenheiro do Google é condenado nos EUA por roubar segredos de IA para empresas chinesas

É #FAKE vídeo de árvore congelada 'explodindo' durante nevasca nos EUA; cena foi feita com IA


É #FAKE vídeo de árvore congelada 'explodindo' durante nevasca nos EUA; cena foi feita com inteligência artificial Reprodução Circula nas redes sociais um vídeo que supostamente mostra uma árvore congelada "explodindo" durante a nevasca que atingiu recentemente os Estados Unidos. É #FAKE. selo fake g1 🛑 Como é o vídeo? Publicado no sábado (24) no TikTok, onde alcançou mais de 29 milhões de visualizações, o post começou a circular em meio a uma megatempestade de neve e gelo que causou dezenas de mortes, fez mais de 10 mil voos serem cancelados e deixou mais de 500 mil pessoas sem energia elétrica. Sobreposta às imagens, há uma legenda, em inglês, que diz: "Eu achava que as pessoas estavam brincando sobre árvores que explodem...". Ela omite, no entanto, que a cena foi criada com inteligência artificial (IA) e não corresponde ao verdadeiro efeito que pode ocorrer em casos de frio extremo (leia mais abaixo). O material mostra uma árvore em um jardim coberto de neve. De repente, uma parte do tronco explode, causando um estouro. Ouve-se, então, o seguinte comentário, também em inglês:"Meu Deus! O que foi isso? Foi a árvore, literalmente rachou". Na imagem seguinte, é possível ver a parte interna do tronco exposta. ⚠️ Por que isso é mentira? O Fato ou Fake submeteu o vídeo a duas ferramentas de detecção de IA – e ambas identificaram o uso desse recurso (veja os resultados abaixo). Hive Moderation - 99,9% de probabilidade de se tratar de conteúdo sintético. Decopy – A análise de uma captura de tela do vídeo indicou 100% de chances de o material ser falso. O perfil que publicou o vídeo é especializado em conteúdos de IA e compartilhou dezenas de cenas semelhantes de árvores "explodindo". Além disso, um indício de que o conteúdo viral não é verdadeiro é a textura da neve, da árvore e da cerca da casa, que apresentam poucos detalhes, quase sem nenhuma imperfeição. Apesar de o vídeo ser falso, árvores podem "explodir" — mas não como mostrado na gravação sintética. Na realidade, o frio intenso pode congelar partes internas da árvore, como a própria seiva, que se expande e rompe o tronco, causando rachaduras e estalos, como aponta a Fundação Nacional de Florestas, organização sem fins lucrativos dos EUA. "O excesso de frio vai congelando várias camadas da vegetação. Os vídeos são falsos, mas o fenômeno é verdadeiro em casos de tempestades de inverno, como a que tivemos nos Estados Unidos", explicou o meteorologista Cesar Soares, do Climatempo, ao Fato ou Fake. EUA podem registrar frio de até -45 °C durante tempestade de inverno É #FAKE vídeo de árvore congelada 'explodindo' durante nevasca nos EUA; cena foi feita com inteligência artificial Reprodução Veja também EUA não foram 'donos' da Groenlândia durante a 2ª Guerra Mundial É #FAKE que EUA foram 'donos' da Groenlândia durante a 2ª Guerra e 'devolveram' a ilha VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Após investigação, estado americano acusa Meta de facilitar exploração infantil


Mark Zuckerberg, CEO da Meta REUTERS/Manuel Orbegozo O estado norte-americano do Novo México está acusando a Meta de expor crianças e adolescentes à exploração sexual no Facebook, Instagram e WhatsApp e obter lucro com isso. O processo, movido pelo procurador-geral do estado, Raúl Torrez, será jugado no Tribunal Distrital de Santa Fé a partir da semana que vem. A previsão é que o julgamento dure cerca de dois meses. A ação ocorre após uma operação da Procuradoria, de 2023, que incluiu investigadores se passando por menores de idade no Facebook para obter provas de exploração sexual infantil (veja mais abaixo). No processo, o procurador-geral afirma que a Meta permitiu que predadores tivessem acesso irrestrito a usuários menores de idade se conectassem com as vítimas, resultando em abuso no mundo real e tráfico de pessoas. Questionada, a Meta nega as alegações e afirma que possui amplas salvaguardas em suas plataformas para proteger os usuários mais jovens. Veja os vídeos que estão em alta no g1 Operação secreta O caso surgiu de uma operação secreta chamada “Operation MetaPhile”, que o procurador Raúl Torrez e seu gabinete conduziram em 2023. Como parte desse esforço, investigadores criaram contas no Facebook e no Instagram se passando por usuários menores de 14 anos. As contas receberam material sexualmente explícito e foram contatadas por adultos em busca de conteúdo semelhante. Três indivíduos foram acusados criminalmente após essas ações, segundo o gabinete do procurador-geral. O Novo México também acusa a Meta de projetar suas plataformas para maximizar o engajamento, apesar das evidências de que elas estavam prejudicando a saúde mental das crianças. Segundo o processo, recursos como a rolagem infinita e vídeos de reprodução automática mantêm as crianças no site, promovendo comportamento viciante que pode levar à depressão, ansiedade e automutilação. Ainda segundo com a denúncia, documentos internos da empresa reconheceram os problemas com a exploração sexual e os danos à saúde mental, as a Meta não instituiu ferramentas básicas de segurança, como a verificação de idade, e deturpou a segurança do uso de suas plataformas. O estado do Novo México busca indenização financeira e uma ordem que obrigue a Meta a fazer mudanças para melhorar a segurança das crianças ao usar as plataformas. Meta diz que argumentos são ‘sensacionalistas’ Antes do julgamento, um porta-voz da Meta classificou os argumentos do Novo México como “sensacionalistas, irrelevantes e distrativos” e disse que se baseavam em documentos selecionados de forma tendenciosa. "Há mais de uma década, ouvimos os pais, trabalhamos com especialistas e autoridades policiais, e conduzimos pesquisas aprofundadas para entender as questões que mais importam", disse o porta-voz. "Estamos orgulhosos do progresso que fizemos e estamos sempre trabalhando para fazer melhor." A Meta argumentou que a empresa está protegida de responsabilidade no caso pelas proteções da liberdade de expressão da Primeira Emenda da Constituição dos EUA e pela Seção 230 da Lei de Decência nas Comunicações, que geralmente proíbe processos contra websites por conteúdo gerado por usuários. As alegações de danos feitas pelo estado não podem ser separadas do conteúdo nas plataformas, porque seus algoritmos e recursos de design servem para publicar conteúdo, disse a empresa. Um porta-voz do Departamento de Justiça do Novo México disse antes do julgamento que a agência estava ansiosa para apresentar o caso no tribunal, pois isso permitiria "apresentar ao júri documentos e testemunhos coletados ao longo de mais de dois anos de litígio". Segurança de crianças e adolescentes A Meta tem sido alvo de escrutínio crescente nos últimos anos sobre a segurança de usuários crianças e adolescentes, impulsionado em parte por depoimentos de denunciantes ao Congresso dos EUA em 2021, que afirmaram que a empresa sabia que seus produtos poderiam ser prejudiciais, mas se recusou a agir. No ano passado, a Reuters informou que um documento de política interna permitia que os chatbots da empresa "engajassem uma criança em conversas românticas ou sensuais". A Meta confirmou a autenticidade do documento, mas disse que removeu a linguagem que permitia flerte e dramatização romântica com menores após a Reuters questioná-la sobre isso. A reportagem levou os legisladores a buscar dados sobre o impacto das plataformas nas crianças e a eficácia de seus controles parentais. Espera-se que evidências sobre os chatbots de IA da empresa sejam apresentadas durante o julgamento. Batalhas judiciais A Meta também enfrenta milhares de processos que acusam a empresa e outras empresas de redes sociais de projetarem intencionalmente seus produtos para serem viciantes para os jovens, levando a uma crise nacional de saúde mental. Alguns dos processos, que foram movidos tanto em tribunais estaduais quanto federais, buscam indenizações de dezenas de bilhões de dólares, segundo documentos da própria Meta enviados a reguladores financeiros. A Meta negou essas acusações e afirma que a Seção 230 a protege de responsabilidade nesses casos. A empresa diz que tomou muitas medidas que reduziram o engajamento e o crescimento de jovens para promover a segurança. O primeiro julgamento desses processos começou nesta semana em Los Angeles. Alphabet (controladora do Google) e a Meta são as únicas rés restantes no caso, após TikTok e Snapchat terem fechado acordos com os autores da ação.

quinta-feira, 29 de janeiro de 2026

Ex-engenheiro do Google é condenado nos EUA por roubar segredos de IA para empresas chinesas


Sombra de um homem projetada em frente ao logo do Google Reuters/Dado Ruvic Um ex-engenheiro de software do Google, foi condenado por um júri federal em São Francisco (EUA) nesta quinta-feira (29) por roubar segredos comerciais de IA da gigante tecnológica norte-americana para beneficiar duas empresas chinesas para as quais trabalhava secretamente, informou o Departamento de Justiça dos EUA (DOJ) no mesmo dia. Linwei Ding, também conhecido como Leon Ding, é um cidadão chinês de 38 anos, e foi considerado culpado após um julgamento de 11 dias por sete acusações de espionagem econômica e sete acusações de roubo de segredos comerciais por roubar milhares de páginas de informações confidenciais. Cada acusação de espionagem econômica acarreta uma pena máxima de 15 anos de prisão e multa de US$5 milhões, enquanto cada acusação de segredos comerciais acarreta uma pena máxima de 10 anos e multa de US$250.000. Ding deve comparecer a uma audiência preliminar em 3 de fevereiro, de acordo com o DOJ. Por que a China executou 11 membros de máfia que aplica golpes pela internet e trafica pessoas para Mianmar Veja os vídeos que estão em alta no g1 O advogado de Ding não respondeu imediatamente a um pedido de comentário. Ding foi inicialmente indiciado em março de 2024 por quatro acusações de roubo de segredos comerciais. Uma acusação substitutiva em fevereiro ampliou as acusações. O caso de Ding foi coordenado por uma força-tarefa interagências chamada Disruptive Technology Strike Force, criada em 2023 pelo governo Biden. Os promotores afirmaram que Ding roubou informações sobre a infraestrutura de hardware e a plataforma de software que permite que os centros de dados de supercomputação do Google treinem grandes modelos de IA. Alguns dos projetos de chips supostamente roubados tinham como objetivo dar ao Google, de propriedade da Alphabet, uma vantagem sobre seus rivais de computação em nuvem Amazon.com e Microsoft, que projetam seus próprios chips, e reduzir a dependência do Google dos chips da Nvidia. Os promotores afirmaram que Ding ingressou no Google em maio de 2019 e começou seus roubos três anos depois, quando estava sendo cortejado para ingressar em uma empresa chinesa de tecnologia em estágio inicial. O Google não foi acusado e afirmou ter cooperado com as autoridades policiais. A empresa não respondeu imediatamente a um pedido de comentário. Reportagem de Tom Hals em Wilmington, Delaware; reportagem adicional de Courtney Rozen.

Demissão de 16 mil pessoas na Amazon também afeta o Brasil: 'Assustador', diz ex-funcionário

Amazon demite cerca de 16 mil funcionários A decisão da Amazon de demitir 16 mil funcionários na quarta-feira (28) também afetou funcionários no Brasil. Procurada pelo g1, a empresa não revelou quantos foram desligados no país. Um brasileiro que foi demitido relatou em condição de anonimato como foi comunicado sobre a decisão da companhia. Ele disse conhecer outras pessoas que também tiveram que deixar seus cargos. "É assustador. A gente nunca espera que vá acontecer com a gente, ainda mais por estar sendo bem avaliado. Quando acontece, não tem para onde correr", contou ao g1. Esta foi a segunda rodada de demissões na Amazon desde outubro, quando dispensou outros 14 mil empregados. Ao todo, 10% dos funcionários do setor corporativo da empresa foram atingidos, segundo a Reuters. Considerando todas as áreas, como centros de distribuição, a companhia soma cerca de 1,5 milhão de usuários em todo o mundo, de acordo com a agência. Rumores sobre a nova rodada de desligamentos começaram na sexta-feira (23), o que fez funcionários ficaram em estado de espera. "Estava um silêncio muito suspeito desde segunda-feira. A empresa inteira estava naquela tensão, desconfiando de que alguma onda fosse passar", afirmou o profissional. No dia dos desligamentos, a empresa lhe enviou um convite para uma reunião por vídeo com o setor de Recursos Humanos. Segundo ele, a conversa foi respeitosa, mas direto ao ponto. Ele disse ter sido informado de que seu desempenho não afetou a decisão, tomada somente porque seu cargo não era mais necessário. A empresa ofereceu 40 minutos para ele remover arquivos pessoais do notebook corporativo. "A justificativa que nos foi passada é que se trata de uma tentativa de eliminar níveis, eliminar burocracia, deixar a organização mais enxuta", disse. Esta foi também foi a explicação oficial da Amazon, que chegou a antecipar por engano o comunicado de demissão para funcionários da Amazon Web Services, sua divisão de computação em nuvem. "Como compartilhei em outubro, temos trabalhado para fortalecer nossa organização reduzindo camadas, aumentando a propriedade e eliminando a burocracia", disse em comunicado Beth Galetti, vice-presidente de experiência de pessoas e tecnologia da Amazon. O profissional disse ter presenciado demissões em larga escala em outras empresas e lamentou que esta seja uma medida normalizada no setor de tecnologia. "Não acho normal impactar a vida de uma quantidade gigante de funcionários por uma otimização quando os resultados da empresa no último trimestre foram bons", disse. "Empresas desse porte tratam o funcionário como número, e isso é sempre cruel". Impacto da IA Em junho de 2025, o CEO da Amazon, Andy Jassy, projetou que, devido à adoção de inteligência artificial, a companhia precisaria de menos pessoas nas tarefas atuais e mais pessoas em outros tipos de trabalho. "Nos próximos anos, esperamos que isso reduza o número total de funcionários da empresa, à medida que obtivermos ganhos de eficiência com o uso extensivo de IA em toda a organização", afirmou. O ex-funcionário disse que a empresa estimula suas equipes a adotarem IA em suas tarefas, mas que não vê esta como a causa para as demissões. "A gente obviamente estava usando IA, mas eu não acho que é isso. Acho que é mais uma relação de enxugar custos e entregar valor ao acionista", avaliou. A Amazon vai divulgar seu balanço para o quarto trimestre de 2025 na próxima quinta-feira (5). No terceiro trimestre, o faturamento da empresa cresceu 13%, enquanto o lucro permaneceu estável.

Morte do cão Orelha expõe redes online de tortura de animais


Orelha, cão de rua comunitário, é torturado por adolescentes e não resiste aos ferimentos A trágica morte de um cachorro comunitário apelidado de Orelha, gravemente ferido num bairro nobre de Florianópolis (SC), não é caso isolado no Brasil nem no mundo. Os suspeitos são quatro adolescentes, atualmente sob investigação policial, após o caso comover a comunidade que o adotou e o restante do país. Os mesmos jovens são apontados como possíveis agressores de outro cão, o Caramelo, que perambulava pela Praia Brava junto com Orelha. Ele escapou de uma tentativa de afogamento. Enquanto as condições em que estes casos ocorreram ainda não foram esclarecidas, especialistas alertam para a existência de redes virtuais globais que incitam a tortura de animais, inclusive no Brasil. Elas são parte de um submundo maior, em que a adoção de comportamentos radicais vira símbolo de status não só entre adultos, mas também entre crianças e adolescentes. Sobre o cão Orelha, a primeira-dama, Janja da Silva, disse: "É um alerta doloroso sobre uma geração exposta, desde cedo, a discursos e conteúdos digitais que banalizam a violência e transformam a dor em entretenimento." Por ora não há indícios de que os supostos autores das agressões contra Orelha e Caramelo tivessem conexão a estas redes. Adolescentes investigados por causar morte de cão Orelha em SC voltam ao Brasil após viagem aos EUA FOTOS: Orelha viveu 10 anos em praia turística de SC com outros cães comunitários Zoosadismo é fenômeno global Orelha Reprodução Para especialistas, entretanto, o caso de Santa Catarina reforça a necessidade de famílias e instituições educarem a juventude sobre os direitos dos animais, protegendo-as da cooptação por ambientes virtuais maliciosos. Uma das práticas incitadas por estas comunidades virtuais é o zoosadismo, que se dá quando uma ou mais pessoas ferem ou torturam um animal por prazer, sexual ou de outra natureza. Isso pode significar, por exemplo, maltratar um bicho pelo divertimento próprio ou de terceiros, se a agressão for filmada e compartilhada na internet. "A violência contra animais é só uma parte de um contexto mais amplo, de um conjunto de comportamentos que funcionam como marcadores de processos de radicalização e de perda da noção das consequências no mundo real," explica o procurador de Justiça Fábio Costa Pereira, nas redes sociais do Ministério Público do Estado do Rio Grande do Sul (MPRS). O MPRS mantém um projeto de prevenção da radicalização e violência extrema entre menores de idade. Negócio lucrativo Ao redor do mundo, veio à luz nos últimos anos não só que o zoosadismo prolifera em fóruns próprios, como também que há quem lucre com eles. Em 2023, uma investigação da BBC revelou uma rede global de práticas sádicas contra macacos, que se estendia da Indonésia aos Estados Unidos. De acordo com a reportagem britânica, centenas de clientes nos EUA, Reino Unido e outros países pagavam indonésios para filmar enquanto torturavam e matavam filhotes de macaco-de-cauda-longa. Já no ano passado, a CNN mostrou que estes grupos vinham expandindo seu alcance não só ao redor do mundo, como também migrando para plataformas mais conhecidas, tais como Telegram, X e YouTube. Em particular, o canal americano expôs uma comunidade dedicada a mutilar, torturar e matar gatos para ganhar dinheiro, adotando técnicas de extrema violência. Três meses depois, no Reino Unido, dois adolescentes foram presos por torturar e matar dois filhotes de gato, que foram encontrados mutilados numa área verde de Londres. Críticas às plataformas Organizações de defesa de animais vêm chamando atenção à disseminação destas redes na internet, pedindo às plataformas que aumentem o controle sobre este tipo de conteúdo. As publicações chegam a reunir várias dezenas de milhares de visualizações, com usuários sugerindo ou encomendando ainda mais crueldade. A notoriedade dentro do nicho se torna uma recompensa para abusadores e exporta o modelo dos vídeos para outros países. Uma coalizão internacional de 45 organizações dedicada ao tema afirma ter recebido denúncias de mais de 80 mil links por suspeita de abuso animal em 2024. A análise de uma amostra de 2 mil links mostrou que os conteúdos retratavam mil indivíduos de 53 espécies, sendo mais comuns os macacos, gatos e cachorros. Pelo menos 108 animais eram de espécies ameaçadas, como orangotangos, gorilas e chimpanzés. Segundo a coalizão, apenas 36% da amostra havia sido removida pelas plataformas. O Facebook e o Instagram, ambos da Meta, hospedavam quase nove a cada dez conteúdos denunciados. Em 2023, na esteira da denúncia da BBC sobre a tortura de macacos na internet, o Reino Unido determinou que as plataformas removam este tipo de conteúdo, sob risco de multas de até 18 milhões de libras esterlinas (R$130 milhões) ou 10% da sua receita anual global. Crime passível de prisão no Brasil O Conselho Federal de Medicina Veterinária define "maus-tratos" contra animais como qualquer ato que provoque dor ou sofrimento desnecessários, incluindo por negligência ou imprudência. Já "crueldade" ou "abuso" preveem intenção do agressor. Maltratar animais é crime no Brasil, podendo ser punido com penas que variam de três meses a um ano de detenção. No caso de cães e gatos, a pena é maior desde 2020, com reclusão de dois a cinco anos. Mas ativistas se queixam de que as punições por maus-tratos contra animais silvestres são frequentemente revertidas em medidas alternativas. Uma campanha do ano passado, que contou com a ativista Luisa Mell e o cantor Ney Matogrosso, pediu que estes crimes sejam equiparados aos contra cães e gatos. Um levantamento de dados do Conselho Nacional de Justiça (CNS) realizado pelo jornal O Globo mostrou que desde 2021, na esteira da introdução da punição para violência contra cães e gatos, houve salto de 1.400% nos processos por maus-tratos de animais no Brasil. A terça-feira (27/01) foi o dia de infortúnio de outro cachorro comunitário, o Abacate. Morador de Toledo, no Paraná, ele foi baleado intencionalmente e teve o intestino perfurado. O animal morreu na mesa de cirurgia veterinária, e a polícia investiga o caso. Com informações de Agência Brasil.

Na onda global contra telas, Suécia quer banir celulares em escolas do fundamental ao médio


Criança no celular Canva A Suécia planeja proibir os telefones celulares nas escolas de ensino fundamental e médio a fim de garantir que as crianças possam se concentrar no aprendizado em sala de aula, informou o governo nesta quarta-feira (28). A proibição implicaria que alunos com até 15 ou 16 anos entreguem seus celulares pela manhã e os recuperem ao final da jornada escolar. Medida segue tendência global criação de regras para a proteção de crianças e adolescentes do uso excessivo do celular. Se for aprovada pelo Parlamento, a proibição vai entrar em vigor a tempo para o início do trimestre de outono no hemisfério norte, em agosto de 2026, e também será aplicada em centros de cuidado extraescolar. Veja os vídeos que estão em alta no g1 O que países estão fazendo para regular o acesso de crianças às redes sociais 'Vejo você em 4 anos': adolescentes na Austrália se despedem das redes antes de proibição "Estudos demonstram que os estudantes suecos se distraem com as ferramentas digitais na sala de aula em maior medida que a média dos estudantes da OCDE (Organização para a Cooperação e Desenvolvimento Econômico)", assinalou o governo em um comunicado. "Por isso, o governo propõe uma proibição dos telefones celulares durante toda a jornada escolar", informou. Cerca de 80% das escolas de níveis fundamental e médio da Suécia já adotam proibições ao uso de telefones celulares nas salas de aula, introduzidas a critério dos diretores, segundo a agência de notícias sueca TT. No entanto, a ministra da Educação, Simona Mohamsson, disse, durante coletiva de imprensa, que era necessária uma proibição em nível nacional para garantir que todas as escolas sejam zonas livres de celulares. A medida "reduzirá as distrações na sala de aula", afirmou, descrevendo-a como "uma vitória tanto para o ensino, quanto para a saúde mental". Mohamsson acrescentou que a proibição também poderia "ajudar muitos pais em sua luta em casa" para reduzir o tempo dos filhos na frente das telas. A ministra destacou que os dados mostram que os estudantes suecos do ensino médio passam, em média, quase sete horas por dia em frente às telas, sem incluir o tempo de tela durante o horário escolar. Veja mais: Pressionados por Macron, deputados franceses analisam projeto que proíbe redes sociais para menores de 15 anos

Meta e Google enfrentam processo nos EUA sobre vício em redes sociais entre jovens


Tribunal da Califórnia julga Meta e Google por danos à saúde mental de adolescentes A Meta e o Google enfrentarão um julgamento no Tribunal Superior da Califórnia, nos Estados Unidos, sob a alegação de que suas plataformas estão alimentando uma crise de saúde mental entre os jovens. O julgamento, que começa nesta semana, representa um teste para milhares de outras ações buscando indenizações por danos causados pelas redes sociais, em uma ofensiva legal que pode enfraquecer a longa defesa jurídica das grandes empresas de tecnologia. O processo envolve uma jovem de 19 anos da Califórnia, identificada como K.G.M., que afirma ter se tornado viciada nas plataformas das empresas, quando era menor de idade, devido ao design chamativo das redes. Ela alega que os aplicativos alimentaram sua depressão e pensamentos suicidas. Agora, está buscando a responsabilização das empresas. Seu processo é o primeiro de vários casos que devem ir a julgamento neste ano, focados no que os autores chamam de "vício em mídia social" entre as crianças. Veja os vídeos que estão em alta no g1 Será a primeira vez que os gigantes da tecnologia terão que se defender em um julgamento sobre supostos danos causados por seus produtos, disse o advogado da autora da ação, Matthew Bergman. "Elas estarão sob um nível de escrutínio que não existe quando você depõe perante o Congresso", disse ele à Reuters. Segundo Bergman, o assunto provavelmente chegará à Suprema Corte dos EUA, seja pelo caso de K.G.M. ou por outro processo. O júri decidirá se as empresas foram negligentes ao fornecer produtos que prejudicaram a saúde mental de K.G.M. e se o uso dos aplicativos foi substancial para sua depressão, em comparação com fatores como o conteúdo de terceiros que ela visualizou nos apps ou aspectos de sua vida off-line. Meta e Google AP/Reuters Um elemento importante no processo é uma lei federal que isenta amplamente plataformas como o Instagram e o TikTok de responsabilidade legal pelo conteúdo postado por seus usuários. As empresas de tecnologia argumentam que essa lei as protege no caso de K.G.M. "Este é realmente um caso de teste.Vamos ver o que acontece com essas teorias", disse Clay Calvert, advogado de mídia do American Enterprise Institute, em referência à argumentação de que as plataformas podem prejudicar a saúde mental de usuários. Plataformas se isentam de responsabilidade Uma decisão contra as redes sociais abriria uma brecha nessa defesa, que as tem protegido de processos há décadas, e mostraria que os jurados estão dispostos a responsabilizar as plataformas. Mark Zuckerberg, presidente-executivo da Meta, deve ocupar o banco das testemunhas. A empresa argumentará no tribunal que seus produtos não causaram os problemas de saúde mental de K.G.M., disseram os advogados da Meta à Reuters antes do julgamento. No caso do Google, o processo envolve o YouTube. A empresa diz que a plataforma de vídeos é fundamentalmente diferente de redes sociais como o Instagram e o TikTok e não deve ser classificada dessa maneira, segundo afirmou um executivo do YouTube antes do julgamento. TikTok e Snapchat fecharam acordo Outras duas plataformas que faziam parte do processo, TikTok e Snapchat, fecharam um acordo extrajudicial e ficaram fora da ação. A ByteDance, controladora do TikTok, chegou a um acordo extrajudicial na segunda-feira (26), informou a equipe jurídica da autora da ação. "As partes estão satisfeitas por terem chegado a uma resolução amigável desta disputa", disse o Social Media Victims Law Center, observando que os termos do acordo são confidenciais. O Snapchat fechou acordo em 20 de janeiro para resolver a ação judicial. Questionada, a empresa não comentou os detalhes do acordo.

Por que a China executou 11 membros de máfia que aplica golpes pela internet e trafica pessoas para Mianmar


Dezenas de membros da máfia Ming foram condenados em 2025. CCTV via BBC A China executou 11 membros de uma família de mafiosos conhecida por administrar centros de golpes em Mianmar ao redor de sua fronteira no nordeste, informou a mídia estatal nesta quinta-feira (29/1). Os membros da família Ming foram condenados em setembro por vários crimes, incluindo homicídio, cárcere privado, fraude e operação de casas de jogos de azar, por um tribunal na província chinesa de Zhejiang. ✅ Siga o canal de notícias internacionais do g1 no WhatsApp Os Mings eram um dos muitos clãs que controlavam a cidade de Laukkaing, transformando uma cidadezinha pobre e isolada em um centro movimentado de cassinos e prostituição. Seu império de golpes desmoronou em 2023, quando eles foram detidos e entregues à China por milícias étnicas que haviam assumido o controle de Laukkaing durante uma escalada no conflito com o Exército de Mianmar. Com essas execuções, Pequim envia uma mensagem a potenciais golpistas. Mas o negócio ilegal agora se deslocou para a fronteira de Mianmar com a Tailândia e para Camboja e Laos, onde a China tem menos influência. Veja os vídeos que estão em alta no g1 Centenas de milhares de pessoas foram traficadas para aplicar golpes online em Mianmar e em outros lugares do sudeste asiático, de acordo com estimativas da Organização das Nações Unidas (ONU). Entre eles, estão milhares de chineses. As suas vítimas, de quem foram roubados bilhões de dólares, também são principalmente chineses. Frustrada com a recusa dos militares de Mianmar em interromper os golpes, dos quais se estima que o país também lucrava, Pequim apoiou implicitamente uma ofensiva de uma aliança rebelde no Estado de Shan no final de 2023. O grupo capturou um território significativo dos militares e tomou Laukkaing, uma importante cidade fronteiriça. Quem é a família Ming? Os 11 membros da família Ming são os primeiros chefes de esquemas de corrupção em Mianmar a serem executados pela China. Mas não serão os últimos. Cinco membros de outra família, a Bai, também foram condenados à morte em novembro, e os julgamentos de outros dois grupos, as famílias Wei e Liu, aguardam conclusão. O julgamento da família Ming ocorreu a portas fechadas, embora mais de 160 pessoas tenham sido autorizadas a comparecer à audiência no ano passado, incluindo familiares das vítimas. As operações de fraude e os cassinos clandestinos dos Ming arrecadaram mais de 10 bilhões de yuans (R$ 7,48 bilhões) de 2015 a 2023, de acordo com a Suprema Corte da China, que rejeitou seus recursos em novembro. Os crimes dos Ming levaram à morte de 14 chineses, com muitos outros feridos, disse o tribunal. Mais de 20 outros membros da família Ming receberam em setembro sentenças de prisão que variam de cinco anos à prisão perpétua. Ming Xuechang, o patriarca do clã, suicidou-se em 2023 ao tentar evitar a prisão, segundo o Exército de Mianmar. As confissões dos presos foram exibidas em documentários da mídia estatal, para enfatizar a determinação das autoridades chinesas em erradicar as redes de golpes. Os Mings estão entre as poucas famílias com ares cinematográficos que ascenderam ao poder em Laukkaing no início dos anos 2000, depois que o então chefe militar da cidade foi deposto em uma operação liderada por Min Aung Hlaing, que se tornou o líder do governo de Mianmar após o golpe de 2021. O chefe da família, Ming Xuechang, administrava um dos centros de golpes mais infames de Laukkaing, chamado de a Vila do Tigre Agachado. A princípio, jogos de azar e prostituição eram as principais fontes de renda dessas famílias, mas eventualmente elas começaram a aplicar fraudes online, com a participação principalmente de pessoas sequestradas e forçadas a executar esses golpes. Dentro dos muros dos extensos e vigiados complexos, reinava uma cultura de violência. Espancamentos e torturas eram rotina, segundo depoimentos de trabalhadores libertados.

quarta-feira, 28 de janeiro de 2026

Tesla, de Musk, investirá US$ 2 bilhões na empresa de IA do bilionário em meio a polêmica


Elon Musk no Fórum Econômico Mundial, em Davos (Suíça), em janeiro de 2026 AP Photo/Markus Schreiber A Tesla, fabricante de carros elétricos chefiada por Elon Musk, anunciou nesta quarta-feira (28) que investirá US$ 2 bilhões na empresa de inteligência artificial xAI, que também pertence ao bilionário. A xAI é responsável pelo Grok, o serviço de inteligência artificial disponível na rede social X, da qual Musk também é o dono. Essa IA está no centro de uma polêmica mundial por atender a pedidos de usuários do antigo Twitter para "despir" mulheres, alterando sem consentimento as fotos que elas postam nas redes. Ao menos duas brasileiras foram vítimas dessas imagens falsas (deepfakes). 'Sentimento horrível. Me sinto suja', diz brasileira vítima de foto editada de biquíni pelo Grok Mulher denuncia uso indevido de IA após ter foto manipulada para parecer nua no Rio Ferramenta gratuita da rede social X tem sido usada para criar imagens íntimas falsas A influencer Ashley St. Clair, mãe de um dos filhos de Musk, também disse que foi vítima do Grok e que processaria a xAI. Após denúncias, a empresa de inteligência artificial também assumiu que gerava imagens sexualizadas de menores de idade, por conta de "falhas nos mecanismos de proteção" que já teriam sido corrigidos. Pesquisadores estimaram que o Grok gerou cerca de 3 milhões de imagens sexualizadas de mulheres e menores em 11 dias, segundo levantamento de pesquisadores do Centro de Combate ao Ódio Digital, um observatório que investiga os efeitos nocivos da desinformação na internet. Há duas semanas, Musk chegou a dizer que não tinha conhecimento de nenhuma imagem de menores nus produzida pelo Grok. No mesmo dia, porém, a empresa anunciou que tomaria medidas para impedir que o Grok edite imagens com conteúdo sexual de pessoas reais. Interesse de investidores No começo do ano, já em meio a essa controvérsia, a xAI anunciou que arrecadou US$ 20 bilhões (R$ 107,6 bilhões) em sua mais recente rodada de financiamento. O valor supera a meta inicial de US$ 15 bilhões. Ao anunciar essa capitalização, a xAI destacou avanços significativos em 2025, incluindo a ativação do que afirma serem os maiores supercomputadores de IA do mundo. Os data centers Colossus I e II da empresa, em Memphis, agora abrigam mais de um milhão de GPUs de alto desempenho. As GPUs, ou unidades de processamento gráfico, são os semicondutores da Nvidia que impulsionam o desenvolvimento da indústria de IA. A empresa também lançou seus modelos de linguagem Grok 4 e Grok Voice, um agente de voz em tempo real que já está disponível nos veículos da Tesla. Segundo a xAI, seus serviços alcançam aproximadamente 600 milhões de usuários ativos mensais por meio da plataforma X e dos aplicativos do Grok. A empresa afirmou que atualmente está treinando o Grok 5.

É #FAKE vídeo de Cybertruck, a picape da Tesla, atravessada por 'adaga' gigante de gelo; cena foi criada com inteligência artificial


Conteúdo foi gerado por IA g1 Circula nas redes sociais um vídeo mostrando uma Cybertruck, a picape elétrica da Tesla, supostamente perfurada por um grande pedaço de gelo pontiagudo, que atravessa o para-brisa e chega ao interior do veículo. É #FAKE. selo fake g1 🛑 Como é o post? Publicado nesta segunda-feira (26) no X, onde já obteve mais de 350 mil visualizações, o post tem a seguinte legenda (em inglês): "Eu me pergunto como isso aconteceu?". O texto omite que a cena foi criada com uma ferramenta de inteligência artificial (IA) do Google (leia detalhes abaixo). O falso registro da Cybertruck "perfurada" por uma "adaga" gigante de gelo viralizou em meio à tempestade de inverno que atingiu recentemente os Estados Unidos, causando dezenas de mortes e deixando mais de 500 mil sem energia elétrica. Depois da publicação, o próprio X incluiu uma "nota da comunidade", que diz (em inglês): "Este vídeo é IA. O Cybertruck não tem alavancas de seta atrás do volante, o que indica que [o conteúdo] é falso". Na seção de comentários, usuários escreveram mensagens indicando que se trata de um material sintético. Mas há também mensagens de pessoas que acreditaram ser verdade. Veja dois exemplos: "Toda a conversa sobre ser blindado e ser derrotado por gelo"; e "Melhor o para-brisa de um carro do que a cabeça de uma pessoa". ⚠️ Por que isso é mentira? O Fato ou Fake submeteu o vídeo a duas plataformas de detecção de IA, e ambas indicaram uso desse recurso: Hive Moderation – 99,9% de probabilidade de o conteúdo ser sintético (veja abaixo). SynthID – Aponta que o vídeo foi feito, em parte ou na íntegra, com a IA do Google (veja abaixo). Resultado de análise do Hive Moderation g1 Diagnóstico do SynthID g1 Em junho de 2024, o g1 fez um teste de direção com a primeira unidade da picape no Brasil. A gravação do interior do veículo comprova que a alegação da "nota de comunidade" do X é real: a Cybertruck não tem alavancas de seta atrás do volante, como exibido no vídeo falso (veja abaixo a comparação): Frame do vídeo gerado por IA: Alavanca de seta no painel g1 Frame de vídeo real, captado no interior de uma Cybertruck: Foto real g1 g1 testou: a primeira Tesla Cybertruck que veio para o Brasil Conteúdo foi gerado por IA g1 Veja também EUA não foram 'donos' da Groenlândia durante a 2ª Guerra Mundial e , por isso, não 'devolveram' a ilha à Dinamarca após o fim do conflito É #FAKE que EUA foram 'donos' da Groenlândia durante a 2ª Guerra e 'devolveram' a ilha VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

É #FAKE que INSS vai deixar de pagar aposentadoria a quem não tem a nova identidade em 2026


É #FAKE que INSS deixará de pagar aposentadoria para quem não tem a nova identidade em 2026 Reprodução Circulam nas redes sociais publicações alegando que o Instituto Nacional do Seguro Social (INSS) vai deixar de pagar aposentadoria em 2026 a cidadãos sem a nova Carteira de Identidade Nacional (CIN). É #FAKE. selo fake g1 🛑 O que dizem as publicações falsas? Publicados entre dezembro de 2025 e janeiro de 2026, os conteúdos sugerem que o INSS deixará de fazer o pagamento a quem não tem a nova identidade. Um vídeo compartilhado no Facebook em 24 de dezembro mostra uma personagem criada com inteligência artificial (IA) que faz o papel de uma repórter de telejornal. Ela diz: "A partir de janeiro será obrigatória a nova identidade. É isso mesmo, você precisará tirar a nova identidade para continuar recebendo os benefícios do INSS [...]". Mas isso é mentira. O INSS não deixará de pagar quem já recebe os benefícios e ainda não tem a CIN em 2026. A nova identidade vai passar a ser obrigatória para esse fim apenas em 1° de janeiro de 2028 (leia mais abaixo). ⚠️ Por que isso é mentira? Nesta segunda-feira (26), a agência Brasil (serviço público de notícias) publicou um texto com o seguinte título: "INSS não deixará de pagar aposentadoria a quem não tem nova identidade". O conteúdo destaca que: Desde 21 de novembro de 2025, o INSS exige um documento com biometria para novos pedidos de aposentadorias e pensões. A medida não afeta quem já recebe algum pagamento do órgão. 🪪 Nessa primeira fase, são aceitas as biometrias da CIN, da Carteira Nacional de Habilitação (CNH) ou do Título de Eleitor. A partir de 1° de maio de 2026, a biometria começa a ser obrigatória também para novos pedidos de salário-maternidade, benefício por incapacidade temporária (antigo auxílio-doença) e pensão por morte. Se a pessoa não tiver biometria em nenhum dos documentos (CNH ou Título de Eleitor), será necessário emitir a CIN. 🔍 Exceções - Estão livres da exigência pessoas com mais de 80 anos; com dificuldade de deslocamento por motivo de saúde (com comprovação); moradores de áreas de difícil acesso e migrantes em situação de refúgio e apátridas; e residentes no exterior. A partir de 1° de janeiro de 2028 a CIN será o único documento com biometria para todos os novos requerimentos e manutenção dos benefícios. ▶️ O que muda para quem já é beneficiário? Nessa primeira fase, nada. A medida só será obrigatória para manutenção dos benefícios a partir de 1° de janeiro de 2028. O INSS orienta que os cidadãos realizem a emissão da nova identidade quanto antes para evitar filas futuras e reforçar a segurança dos dados do previdenciário. Saiba como tirar a nova Carteira de Identidade Nacional. Caso o INSS identifique a necessidade de atualização biométrica de algum beneficiário ativo, a pessoa será informada com antecedência, sem que haja qualquer bloqueio no recebimento dos valores. É #FAKE que INSS deixará de pagar aposentadoria para quem não tem a nova identidade em 2026 Reprodução Veja também EUA não foram 'donos' da Groenlândia durante a 2ª Guerra Mundial É #FAKE que EUA foram 'donos' da Groenlândia durante a 2ª Guerra e 'devolveram' a ilha VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Pinterest vai cortar empregos e fechar escritórios para investir em IA


Pinterest Stephen Phillips/Unsplash O Pinterest anunciou na terça-feira (27) que vai reduzir em até 15% seu quadro de funcionários para realocar recursos em funções e estratégias voltadas à inteligência artificial. Em setembro do ano passado, o Pinterest tinha 5.205 funcionários em tempo integral. Com isso, o corte pode atingir até cerca de 780 postos de trabalho. A empresa também informou que pretende fechar escritórios menores ligados a aquisições realizadas nos últimos anos. Segundo a companhia, os encargos de reestruturação antes de impostos devem ficar entre US$ 35 milhões e US$ 45 milhões, e o plano deve ser concluído até o fim do terceiro trimestre. Veja os vídeos que estão em alta no g1 Recentemente, o Pinterest lançou o Pinterest Assistant, ferramenta de compras com recomendações personalizadas, e o pacote de anúncios Performance+, voltado à automação de campanhas. As ações da empresa, no entanto, caíram quase 10% depois que sua apresentação sobre IA não conseguiu empolgar investidores, em meio à crescente concorrência por fatias do mercado de anúncios com plataformas como TikTok, Facebook e Instagram, da Meta. “Sem uma redução clara de custos ou um caminho concreto para o crescimento da receita impulsionado por IA, esses cortes parecem mais defensivos do que estratégicos”, afirmou Jeremy Goldman, analista da Emarketer. Durante a reunião anual do Fórum Econômico Mundial, realizada no início deste mês, executivos disseram que, embora alguns empregos desapareçam, outros devem surgir. Dois deles afirmaram à Reuters que a IA tem sido usada como justificativa por empresas que já planejavam demissões em massa. “Muitas companhias precisam mostrar aos investidores que os gastos elevados com IA valem a pena e, ao mesmo tempo, sinalizar cortes em outras áreas para financiá-los”, disse Danni Hewson, chefe de análise financeira da AJ Bell.

Amazon demite cerca de 16 mil funcionários


Logo da Amazon, gigante da tecnologia. REUTERS/Dado Ruvic/Illustration/File Photo A Amazon anunciou nesta quarta-feira (28) que vai demitir cerca de 16 mil funcionários em uma nova rodada de cortes, ampliando as demissões em massa no setor de tecnologia. A decisão ocorre após uma rodada anterior, em outubro, quando a empresa dispensou 14 mil empregados. Os novos desligamentos foram comunicados por Beth Galetti, vice-presidente sênior da companhia. "Como compartilhei em outubro, temos trabalhado para fortalecer nossa organização reduzindo camadas, aumentando a propriedade e eliminando a burocracia", disse a executiva no site da empresa (leia a íntegra ao final da reportagem). 📱Baixe o app do g1 para ver notícias em tempo real e de graça Segundo Galetti, os funcionários que atuam nos Estados Unidos terão 90 dias para tentar uma recolocação interna antes de receber indenização, serviços de apoio à recolocação profissional e benefícios do plano de saúde. O g1 procurou a Amazon para saber se os cortes também afetam funcionários no Brasil. Veja os vídeos que estão em alta no g1 E-mail enviado por engano Antes de oficializar os desligamentos, a Amazon alertou por engano, nesta terça-feira (27), funcionários da divisão de computação em nuvem Amazon Web Services (AWS) sobre demissões. Segundo a agência de notícias Reuters, a empresa enviou, antecipadamente, um e-mail de solidariedade e um convite para uma reunião de equipe. De acordo com a agência, a mensagem, assinada por Colleen Aubrey, vice-presidente sênior de soluções de IA aplicada da AWS, afirmava incorretamente que funcionários impactados nos Estados Unidos, no Canadá e na Costa Rica já haviam sido informados de que perderiam seus empregos. A Amazon se referiu às demissões no e-mail como “Project Dawn”. Em canais do Slack vistos pela Reuters, funcionários da AWS que receberam a mensagem disseram que, após a mensagem eletrônica, o convite para a reunião foi cancelado quase imediatamente. “Mudanças como essa são difíceis para todos”, escreveu Aubrey no e-mail, revisado pela Reuters. “Essas decisões são difíceis e são tomadas de forma cuidadosa, à medida que posicionamos nossa organização e a AWS para o sucesso futuro.” Na última sexta-feira (23), a Reuters já havia informado que a Amazon pretendia demitir milhares de funcionários corporativos a partir desta semana. Além do e-mail equivocado, segundo apuração da agência, a empresa ainda não comunicou os empregados afetados nem confirmou oficialmente o plano de cortes. Comunicado da Amazon sobre as demissões "Quero avisar que estamos fazendo mudanças organizacionais adicionais na Amazon que vão impactar alguns de nossos colegas de equipe. Reconheço que essa é uma notícia difícil, por isso estou compartilhando o que está acontecendo e por quê. Como compartilhei em outubro, temos trabalhado para fortalecer nossa organização reduzindo camadas, aumentando a propriedade e eliminando a burocracia. Enquanto muitas equipes finalizaram suas mudanças organizacionais em outubro, outras equipes só concluíram esse trabalho agora. As reduções que estamos fazendo hoje impactarão aproximadamente 16.000 vagas na Amazon, e estamos novamente trabalhando duro para apoiar todos cujos cargos são impactados. Isso começa oferecendo 90 dias para a maioria dos funcionários baseados nos EUA para buscar uma nova função internamente (o tempo varia internacionalmente conforme os requisitos locais e de país). Depois, para colegas que não conseguirem encontrar uma nova vaga na Amazon ou que optem por não procurar, ofereceremos suporte à transição, incluindo indenização, serviços de outplacement, benefícios de seguro saúde (conforme aplicável) e mais. Enquanto fazemos essas mudanças, também continuaremos contratando e investindo em áreas e funções estratégicas que são críticas para o nosso futuro. Ainda estamos nos estágios iniciais de construir todos os nossos negócios e há uma oportunidade significativa pela frente. Alguns de vocês podem perguntar se este é o começo de um novo ritmo – onde anunciamos reduções amplas a cada poucos meses. Esse não é o nosso plano. Mas, como sempre fizemos, toda equipe continuará avaliando a propriedade, a velocidade e a capacidade de inventar para os clientes, e fará ajustes conforme necessário. Isso nunca foi tão importante quanto é hoje, em um mundo que está mudando mais rápido do que nunca. Sou grata pela forma como nossas equipes continuam a entregar – pelos clientes, uns pelos outros e pelas coisas incríveis que estamos construindo juntos. Obrigada, Beth"

terça-feira, 27 de janeiro de 2026

Como funciona o novo modo de segurança do WhatsApp contra ataques virtuais


WhatsApp lança modo avançado de segurança O WhatsApp começou a liberar na terça-feira (27) um modo de segurança avançado com recursos para usuários que acreditam estar expostos ao risco de ataques cibernéticos. A novidade coloca o nível máximo de proteção, mas limita alguns recursos do aplicativo. Anexos e prévias de links enviados por desconhecidos, por exemplo, são bloqueados automaticamente. O pacote de segurança ativa a confirmação em duas etapas, voltada para evitar que a conta seja ativada em outro celular, e bloqueia ligações de desconhecidos. Além disso, apenas contatos podem ver informações como "visto por último" e "online", bem como adicionar o usuário a grupos. Para ativar a proteção adicional, é preciso acessar "Configurações", selecionar "Privacidade", clicar em "Configurações avançadas" e habilitar a opção "Configurações rigorosas da conta". 📱 Baixe o app do g1 para ver notícias em tempo real e de graça Configurações rigorosas do WhatsApp Divulgação/WhatsApp Segundo o aplicativo, ele é voltada para pessoas como jornalistas e figuras públicas que "podem precisar de proteções extremas contra ataques cibernéticos raros e altamente sofisticados". "Esse recurso foi desenvolvido para os poucos usuários que podem ser submetidos a esse tipo de ataque. Por esse motivo, ele só deve ser ativado se você acreditar que pode ser alvo de uma campanha cibernética sofisticada. A maioria das pessoas não é visada por esses ataques", explicou o WhatsApp. A plataforma também implementou uma linguagem de programação chamada Rust para proteger fotos, vídeos e mensagens de programas espiões. Combate ao 'gatonet' derruba centenas de sites e apps piratas no Brasil em 2025 Como funcionam tecnologias que extraem dados de celulares e que a PF tem usado no Brasil 'Sentimento horrível', diz brasileira vítima de foto editada de biquíni pelo Grok, IA de Musk Segurança extra O WhatsApp é mais uma das plataformas que permitiu aos usuários optar por proteções mais robustas contra hackers em troca de uma experiência mais restritiva. Em 2022, a Apple lançou o "Modo de Bloqueio", que descreve como "uma proteção extrema e opcional" projetada para "pouquíssimos indivíduos" que podem ser alvos de ameaças digitais avançadas. Disponível para iPhone e macOS, o recurso desativa a maioria dos anexos de mensagens e prévias de links, além de restringir chamadas do FaceTime e navegação na web. Em 2025, o Android começou a oferecer o "Modo de Proteção Avançada" para usuários com "alta consciência de segurança". Assim como o "Modo de Bloqueio", o recurso sacrifica alguns recursos em prol de uma segurança aprimorada, incluindo a restrição de downloads de aplicativos potencialmente arriscados de fora da Play Store, do Google. Um pesquisador que ajuda a defender figuras da sociedade civil contra ataques de hackers disse à Reuters que o anúncio do WhatsApp foi "um desenvolvimento muito bem-vindo". O recurso ajudará a proteger dissidentes e ativistas, além de incentivar outras empresas de tecnologia a aprimorarem seus serviços, afirmou John Scott-Railton, do Citizen Lab, grupo de pesquisa da Universidade de Toronto. "Minha esperança é que outros sigam o exemplo", disse.

O que é o UpScrolled, rede social que teve um boom após venda do TikTok nos EUA


Upscrolled Divulgação/UpScrolled Após a venda da operação do TikTok nos Estados Unidos na quinta-feira (22) e as acusações de que a rede social chinesa está censurando críticas ao governo americano, outras plataformas registraram um salto no número de downloads. E, até o momento, há uma grande beneficiada: o UpScrolled, serviço australiano que funciona como uma mistura de Instagram e X, chegou à quarta posição no ranking de mais baixados da App Store americana. De quinta a sábado (24), a plataforma teve média de 14 mil downloads por dia, o que equivale a 29 vezes o seu patamar anterior, segundo dados do Appfigures obtidos pelo site The Verge. Lançada em 2025, a rede social permite acessar fotos, vídeos e textos dos outros usuários, além de trocar mensagens com amigos. 📱 Baixe o app do g1 para ver notícias em tempo real e de graça Veja os vídeos que estão em alta no g1 E chamou mais atenção dos usuários após o TikTok finalizar o acordo com investidores não chineses para criar uma empresa responsável por sua operação nos EUA e atender a uma determinação do governo americano, que apontou a plataforma como um risco à segurança nacional. A chinesa ByteDance terá 19,9% da operação, enquanto um grupo de empresas, incluindo a gigante americana da computação em nuvem Oracle, terá 80,1%. Com o crescimento expressivo, o UpScrolled enfrentou uma instabilidade. "Vocês chegaram tão rápido que nossos servidores não aguentaram", disse a plataforma na segunda-feira (26). UpScrolled Divulgação/UpScrolled A rede social foi criada por Isaam Hijazi, empresário com cidadania palestina, jordaniana e australiana, e promete ser um espaço "sem filtros". A rede social diz ter sido projetada para ser imparcial, não esconder o conteúdo publicado por usuários e usar algoritmos justos que não deem vantagens injustas para qualquer conteúdo ou grupo. "Com muita frequência, usuários ficam na dúvida se suas vozes serão ouvidas ou silenciadas. O UpScrolled muda isso, garantindo que cada publicação tenha uma chance justa de ser vista, criando um ambiente autêntico, sem filtros e equitativo para todos", alega o serviço. A plataforma afirma que os seus algoritmos ordenam postagens de forma simples, enquanto os de seus concorrentes são complexos e manipuladores. E destaca que os usuários podem ver conteúdo de forma cronológica. UpScrolled Divulgação/UpScrolled Chefe de esquema de 'gatonet' é condenado após movimentar R$ 5 milhões por ano Como funcionam tecnologias que extraem dados de celulares e que a PF tem usado no Brasil 'Sentimento horrível', diz brasileira vítima de foto editada de biquíni pelo Grok, IA de Musk Investigação sobre TikTok O governador da Califórnia, Gavin Newsom, disse na terça-feira (27) ter aberto uma investigação contra o TikTok em meio a relatos de dificuldades para publicar críticas ao presidente Donald Trump após a morte de um enfermeiro por um agente de imigração. Vários usuários do TikTok não conseguiram publicar vídeos sobre a morte do enfermeiro Alex Pretti em Minneapolis, onde ele recebeu vários tiros de agentes do Serviço de Imigração e Alfândega (ICE, na sigla em inglês) durante um protesto. Os usuários disseram ainda que as publicações que foram ao ar tiveram um número de visualizações menor do que o esperado e que muitas imagens foram submetidas à moderação de conteúdo. "É hora de investigar. Estou lançando uma investigação para determinar se o TikTok está violando a lei do estado ao censurar conteúdo crítico a Trump", disse Newsom em suas redes sociais. O TikTok alegou que os problemas relatados se devem a uma "falha em cascata dos sistemas" por um corte de energia e que relatos que atribuíssem qualquer outra causa seriam "imprecisos". O jornalista especializado David Leavitt escreveu no X que "o TikTok começou a censurar conteúdos anti-Trump e anti-ICE", a polícia anti-imigração. Para respaldar suas acusações, ele compartilhou uma captura de tela de vídeos em seu perfil que vinham com a mensagem "não apto à recomendação". A cantora Billie Eilish também publicou uma mensagem nesse sentido. "O TikTok está silenciando as pessoas", escreveu no Instagram ao lado da captura de tela de uma publicação na conta de TikTok de seu irmão, Finneas O'Connell, que mostrava a morte de Pretti, mas tinha muito menos visualizações do que o habitual. "Após a venda do TikTok a um grupo empresarial alinhado a Trump, nosso escritório recebeu relatos - e confirmou de maneira independente casos - de conteúdo crítico ao presidente Trump que foi suprimido", escreveu o gabinete de Newsom no X.

Amazon envia e-mail errado e antecipa aviso de demissões, diz agência


Logo da Amazon, gigante da tecnologia. REUTERS/Dado Ruvic/Illustration/File Photo A Amazon alertou por engano, nesta terça-feira (27), funcionários da divisão de computação em nuvem Amazon Web Services (AWS) sobre demissões previstas para a manhã de quarta-feira (28). Segundo a agência de notícias Reuters, a empresa enviou, antecipadamente, um e-mail de solidariedade e um convite para uma reunião de equipe. 📱Baixe o app do g1 para ver notícias em tempo real e de graça De acordo com a agência, a mensagem, assinada por Colleen Aubrey, vice-presidente sênior de soluções de IA aplicada da AWS, afirmava incorretamente que funcionários impactados nos Estados Unidos, no Canadá e na Costa Rica já haviam sido informados de que perderiam seus empregos. A Amazon se referiu às demissões no e-mail como “Project Dawn”. Veja os vídeos em alta do g1 Veja os vídeos que estão em alta no g1 Em canais do Slack vistos pela Reuters, funcionários da AWS que receberam a mensagem disseram que, após a mensagem eletrônica, o convite para a reunião foi cancelado quase imediatamente. “Mudanças como essa são difíceis para todos”, escreveu Aubrey no e-mail, revisado pela Reuters. “Essas decisões são difíceis e são tomadas de forma cuidadosa, à medida que posicionamos nossa organização e a AWS para o sucesso futuro.” Na última sexta-feira (23), a Reuters já havia informado que a Amazon pretendia demitir milhares de funcionários corporativos a partir desta semana. Além do e-mail equivocado, segundo apuração da agência, a empresa ainda não comunicou os empregados afetados nem confirmou oficialmente o plano de cortes. À Reuters, pessoas familiarizadas com o assunto disseram que as demissões devem atingir a AWS, o varejo, o Prime Video e recursos humanos. A Amazon demitiu cerca de 14 mil pessoas em outubro, como parte de um plano mais amplo para reduzir o quadro corporativo em aproximadamente 30 mil funcionários, disseram à época pessoas a par do tema. A empresa relacionou os cortes ao aumento do uso de inteligência artificial e aos esforços para reduzir camadas de burocracia. O total de 30 mil postos de trabalho representaria uma pequena parcela dos 1,58 milhão de empregados da Amazon, mas quase 10% da força de trabalho corporativa da empresa. Nesta terça-feira (27), a empresa cortou vagas em suas divisões Fresh (supermercados) e Go (lojas de conveniência), enquanto planeja fechar lojas físicas existentes e converter algumas delas em unidades da Whole Foods. A Amazon não respondeu a um pedido de comentário. *Com informações da Reuters.

Pornhub e Redtube anunciam que não vão permitir novos usuários no Reino Unido


Site pornô Pornhub Franco Alva/Unsplash A Aylo, dona dos sites de conteúdo adulto YouPorn, Pornhub e Redtube, anunciou nesta terça-feira (27) que não vai mais aceitar novos usuários no Reino Unido a partir do dia 2 de fevereiro. Isso acontece em meio a críticas da companhia às novas leis que endurecem a obrigação de verificação de idade dos usuários. Há cerca de seis meses, plataformas no Reino Unido são obrigados a seguir as regras do Online Safety Act (OSA), que prevê multas milionárias para plataformas que permitirem o acesso de menores a conteúdos considerados impróprios. No anúncio, a Aylo critica especificamente o OSA alegando, entre outras coisas, que "ele não atingiu seu objetivo pretendido de proteger menores". "Com base nos dados e na experiência da Aylo, essa lei e o arcabouço regulatório tornaram a internet mais perigosa para menores e adultos e colocam em risco a privacidade e os dados pessoais dos cidadãos do Reino Unido", alega em nota a empresa sediada no Chipe. Usuários do Reino Unido que verificarem a idade na plataforma até o dia 2 de fevereiro vão continuar tendo acesso a ele por meio de suas contas existentes, segundo a empresa. A Aylo já bloqueou seus sites em outros países por motivos semelhantes, considera que as normas britânicas não protegem os menores. Embora "os grandes operadores cumpram a lei, a grande maioria dos sites que oferecem conteúdos inadequados para determinadas idades não está sujeita a nenhum controle", afirma a empresa, que teme um aumento do "risco de exposição a conteúdos perigosos ou ilegais". Veja os vídeos que estão em alta no g1 A Aylo também considera que a verificação de idade implica problemas para "a vida privada e os dados pessoais dos cidadãos britânicos" e afirma que "cada telefone, tablet ou computador deveria ser configurado desde o início como um dispositivo seguro para crianças", em vez de fazer recair esta responsabilidade sobre os sites. "Continuamos decididos a colaborar com o Reino Unido, a Comissão Europeia e outros parceiros internacionais para garantir que as lições aprendidas no Reino Unido sejam levadas em conta na elaboração de políticas futuras", assegurou a companhia em seu comunicado.

Apple libera alerta de pressão alta no Apple Watch


Mulher usa o Apple Watch, que teve a função de alerta de hipertensão liberada no Brasil Divulgação A Apple liberou nesta terça-feira (27) para usuários do Apple Watch as notificações de pressão alta, após aprovação da Agência Nacional de Vigilância Sanitária (Anvisa). A ideia é que, assim que ativado no app Saúde do iPhone, o recurso seja capaz de identificar sinais de pressão alta após 30 dias de uso do smartwatch e alertar o usuário. A companhia afirma que o recurso serve para pessoas sem diagnóstico de hipertensão identificarem a doença, que não tem sintomas aparentes. Pessoas com diagnóstico de pressão alta não precisam da funcionalidade. Pressão de 12 por 8 é reclassificada como pré-hipertensão em nova diretriz O relógio e o iPhone irão avisar que a pessoa está apresentando um comportamento padrão para pressão alta e que deve procurar um médico. Veja os vídeos que estão em alta no g1 Como funciona O Apple Watch não mede a pressão sanguínea como um aparelho convencional ou outros relógios inteligentes. O acompanhamento é feito usando o sensor óptico do relógio, que verifica como os vasos sanguíneos respondem às batidas do coração. Um algoritmo avalia esses dados e informa o resultado. Após 30 dias de uso, se a notificação de pressão alta aparecer, a fabricante recomenda que o usuário meça a pressão utilizando um aparelho convencional (saiba como escolher um) por 7 dias e compartilhe as informações com seu médico na próxima consulta. Os testes das notificações de pressão do Apple Watch foram realizados com mais de 100 mil participantes e validados em estudos clínicos com 2 mil pessoas. Os resultados mostraram que metade dos pacientes avaliados tinham pressão alta sem diagnóstico. Notificação de hipertensão no iPhone e Apple Watch Divulgação Outros relógios que medem pressão O sistema usado pela Apple para detectar hipertensão é diferente do utilizado por outros fabricantes de relógios inteligentes, que prometem medir a pressão. Na Samsung, é preciso calibrar o Galaxy Watch com um medidor de pressão convencional, e o smartwatch faz as medições por 30 dias. Depois desse período, o relógio precisa ser recalibrado. Na Huawei, o modelo Watch D2 tem um medidor de pressão integrado à pulseira do relógio. As notificações de hipertensão estão disponíveis no Apple Watch série 9 e modelos superiores, além do Watch Ultra 2 e 3.

TikTok fecha acordo extrajudicial em processo sobre vício em redes sociais


Instagram e TikTok Reuters A ByteDance, controladora do TikTok, chegou a um acordo extrajudicial em um julgamento histórico sobre vício em redes sociais na noite desta segunda-feira (26), informou a equipe jurídica da parte autora na terça-feira (27). "As partes estão satisfeitas por terem chegado a uma resolução amigável desta disputa", disse o Social Media Victims Law Center, observando que os termos do acordo são confidenciais. A Meta e o Google, proprietário do YouTube, continuam sendo réus no processo. Veja os vídeos que estão em alta no g1 O que está acontecendo? Meta, TikTok e YouTube estão sendo julgados por causa das alegações de que suas plataformas estão alimentando uma crise de saúde mental entre os jovens, enquanto o debate sobre o tempo de tela das crianças entra em uma nova fase. O julgamento no Tribunal Superior da Califórnia, no Condado de Los Angeles, é um teste para milhares de outras ações buscando indenizações por danos causados pelas redes sociais, em uma ofensiva legal que pode enfraquecer a longa defesa jurídica das grandes empresas de tecnologia. Esse julgamento envolve uma jovem de 19 anos da Califórnia, identificada como K.G.M., que afirma ter se tornado viciada nas plataformas das empresas quando era mais nova devido ao design que chama a atenção, de acordo com os autos do processo. Ela alega que os aplicativos alimentaram sua depressão e pensamentos suicidas e está tentando responsabilizar as empresas. Seu processo é o primeiro de vários casos que devem ir a julgamento neste ano, focados no que os autores chamam de "vício em mídia social" entre as crianças. Será a primeira vez que os gigantes da tecnologia terão que se defender em um julgamento sobre supostos danos causados por seus produtos, disse o advogado da autora, Matthew Bergman. "Elas estarão sob um nível de escrutínio que não existe quando você depõe perante o Congresso", disse ele à Reuters. O júri decidirá se as empresas foram negligentes ao fornecer produtos que prejudicaram a saúde mental de K.G.M. e se o uso dos aplicativos foi um fator substancial para sua depressão, em comparação com outras causas, como o conteúdo de terceiros que ela visualizou nos aplicativos ou aspectos de sua vida off-line. Um fator importante no processo é uma lei federal que isenta amplamente plataformas como Instagram e TikTok de responsabilidade legal pelo conteúdo postado por seus usuários. As empresas de tecnologia argumentam que essa lei as protege no caso de K.G.M. "Este é realmente um caso de teste", disse Clay Calvert, advogado de mídia do American Enterprise Institute. "Vamos ver o que acontece com essas teorias" de que as plataformas de mídia social causaram danos à autora da ação. Um veredito contra as redes sociais abriria uma brecha nessa defesa, que as tem protegido de processos há décadas. Mostraria que jurados estão dispostos a responsabilizar as plataformas. Segundo Bergman, o assunto provavelmente chegará à Suprema Corte, seja pelo caso de K.G.M. ou outro. Mark Zuckerberg, presidente-executivo da Meta, deve ocupar o banco das testemunhas. A empresa argumentará no tribunal que seus produtos não causaram os problemas de saúde mental de K.G.M., disseram os advogados da Meta à Reuters antes do julgamento. É esperado que o presidente-executivo da Snap, Evan Spiegel, também testemunhe, já que sua empresa é ré no processo. A Snap fechou acordo, em 20 de janeiro, para resolver a ação judicial da K.G.M.. Um porta-voz da empresa se recusou a comentar sobre os detalhes do acordo. O YouTube argumenta que as plataformas da empresa são fundamentalmente diferentes das plataformas de mídia social, como o Instagram e o TikTok, e não devem ser agrupadas no tribunal, disse um executivo do YouTube antes do julgamento.

YouTube vai usar IA para identificar menores de idade na plataforma no Brasil; veja como funciona


Youtube. Dado Ruvic/Reuters O YouTube anunciou nesta terça-feira (27) que vai adotar inteligência artificial para identificar se um usuário da plataforma tem menos de 18 anos. Segundo a empresa, a iniciativa faz parte das medidas de segurança voltadas a adolescentes. O recurso está disponível desde o ano passado nos Estados Unidos e em alguns países da Europa e chegará ao Brasil, a Cingapura e à Austrália "nas próximas semanas". 📱 Baixe o app do g1 para ver notícias em tempo real e de graça Para identificar esses usuários, o YouTube informou que analisará sinais como os tipos de vídeos pesquisados, as categorias de conteúdo assistidas e a "longevidade da conta". Quando o sistema identificar um usuário menor de idade, a plataforma afirma que aplicará automaticamente algumas medidas de proteção, como: desativação da publicidade personalizada; ativação de ferramentas de bem-estar digital; aplicação de salvaguardas nas recomendações de conteúdo, incluindo limites para visualizações repetitivas de determinados tipos de vídeos. A empresa explicou ainda que, caso o sistema estime incorretamente que um usuário tem menos de 18 anos, será possível confirmar a maioridade por meio de verificação, como o uso de cartão de crédito ou de um documento de identidade oficial. LEIA TAMBÉM: Google aceita pagar US$ 68 milhões em processo por espionagem de seu assistente virtual Vazamento expõe dados internos da Nike, diz site Nada de arroz: saiba o que fazer se o celular cair na água Entenda nova regra que exige confirmação de idade de usuários por sites e aplicativos Vídeos de alimentos e objetos falantes criados com IA inundam as redes Meninas expõem rotina de casadas no TikTok

Google aceita pagar US$ 68 milhões em processo por espionagem de seu assistente virtual


Google Assistente está presente no Google Home Mini (foto) e em dispositivos Android John Tekeridis/Pexels O Google aceitou pagar US$ 68 milhões em um processo de ação coletiva que acusa o Google Assistente de espionagem ilegal de usuários. A assistente virtual é alvo de alegações de que teria gravado conversas para fins como a exibição de anúncios, segundo a agência Reuters. De acordo com a agência, o acordo preliminar foi protocolado na última sexta-feira (23) em um tribunal federal de San Jose, na Califórnia, e ainda precisa ser aprovado pela juíza distrital dos Estados Unidos Beth Labson Freeman. Documentos judiciais apontam que o acordo abrange pessoas que compraram dispositivos do Google e teriam sido submetidas a "falsas ativações" do assistente desde 18 de maio de 2016, explica a Reuters. Usuários afirmam que o Google Assistente foi ativado sem autorização e passou a gravar conversas mesmo sem o uso dos comandos de voz "Hey, Google" ou "Ok, Google", segundo o site de tecnologia TechCrunch. Veja os vídeos que estão em alta no g1 O Google nega irregularidades, mas optou pelo acordo para evitar riscos, custos e incertezas de um litígio, de acordo com documentos judiciais. Procurada pela Reuters, a empresa não comentou o caso. O site The Verge lembra que outras big techs também enfrentaram acusações semelhantes. Há cerca de um ano, a Apple aceitou pagar US$ 95 milhões em uma ação coletiva relacionada à assistente virtual Siri. Vídeos de alimentos e objetos falantes criados com IA inundam as redes Mulher se casa com personagem criado no ChatGPT  Crise da memória RAM pode deixar celulares, notebooks e até carros mais caros no Brasil

É #FAKE vídeo que mostra jovens surfando na enxurrada em favela; cenas foram criadas com IA


É #FAKE vídeo que mostra jovens surfando na enxurrada em favela Reprodução Circula nas redes sociais um vídeo de jovens surfando em uma enxurrada que passa por ruas e becos de uma favela. É #FAKE. selo fake g1 📲 Como o vídeo chegou ao Fato ou Fake? Um leitor enviou o conteúdo por meio do nosso WhatsApp – +55 (21) 97305-9827 – e perguntou se o conteúdo era real. O material tem a sinalização de "encaminhado com frequência". 🛑 Como é o vídeo falso? Com 53 segundos de duração, o vídeo viralizou no WhatsApp a partir de sexta-feira (23). Ele tem a seguinte legenda: "Pobre precisa de pouco para se divertir". O texto omite que as cenas foram criadas com inteligência artificial (leia detalhes abaixo). Apenas a partir da segunda metade do registro, é que há trechos sinalizados com a marca d'água da plataforma MindVideo AI, que permite a criação de imagens sintéticas a partir de comandos com textos simples. As imagens mostram jovens supostamente surfando em meio a uma enxurrada que desce por ruas e becos de uma favela. O áudio reproduz o som da corrente de água, enquanto vozes alternadas dizem expressões como "olha o surfe na ladeira" e "surfe na favela". ⚠️ Por que isso é mentira? O Fato ou Fake submeteu o vídeo a duas plataformas de detecção de IA, e ambas indicaram uso desse recurso: Hive Moderation – 87% a 97% de probabilidade de o conteúdo ser sintético. Sightengine – 75% de probabilidade de o conteúdo ser sintético. Apontou ainda grandes chances de as imagens terem sido feitas com o Sora, modelo da OpenAI (dona do ChatGPT) para criação de vídeos por IA a partir de textos simples. A ferramenta de detecção Hive Moderation aponta trechos com 87% a 97% de probabilidade de uso de inteligência artificial. Reprodução A ferramenta de detecção Sightengine aponta 75% de probabilidade de o conteúdo ter sido gerado por inteligência artificial Reprodução Veja também É #FAKE que EUA foram 'donos' da Groenlândia durante a 2ª Guerra Mundial e 'devolveram' a ilha à Dinamarca após o fim do conflito É #FAKE que EUA foram 'donos' da Groenlândia durante a 2ª Guerra e 'devolveram' a ilha VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

segunda-feira, 26 de janeiro de 2026

Chefe de esquema de 'gatonet' é condenado após movimentar R$ 5 milhões por ano e comprar carros de luxo


Autoridades fazem cerco à pirataria de serviços de TV Soumith Soman/Pexels Um homem apontado como líder de um esquema de "gatonet" e lavagem de dinheiro de 2017 a 2021 em Penápolis (SP) teve sua pena ampliada pela Justiça de São Paulo. Em dezembro, ele tinha sido condenado a 6 anos e 8 meses de reclusão em regime semiaberto. Na última quarta-feira (21), a pena foi elevada a 7 anos e 6 meses de prisão em regime fechado. Ainda é possível recorrer da decisão. Na sentença, a Justiça apontou que ele oferecia um serviço ilegal por meio do site Control IPTV, que permitia assinar pacotes com canais de TV, além de filmes e séries sob demanda, sem autorização dos detentores de direitos sobre os conteúdos. O serviço ilegal se baseava no portal meupainel.me, uma espécie de central para gerenciar usuários e pagamentos de vários sites ilegais, incluindo Price IPTV, Tech Canais, LH Canais, DVConect, Plis Canais, Factory IPTV, IPTV Fast e Turbo TV. 💡 IPTV é a sigla em inglês para "televisão por protocolo de internet", serviço em que o conteúdo é transmitido pela internet, em vez de antena ou cabo. 📱 Baixe o app do g1 para ver notícias em tempo real e de graça Veja os vídeos que estão em alta no g1 O plano básico custava R$ 25 por mês para cada usuário, segundo denúncia da Alianza, associação de empresas contra pirataria audiovisual na América Latina. A partir de ferramentas disponíveis na internet, a entidade estimou que a plataforma tenha alcançado cerca de 17 mil usuários únicos e, então, projetou o faturamento anual do esquema em R$ 5,2 milhões. Com o dinheiro do "gatonet", ele buscou ocultar R$ 13 milhões por meio de empresas de fachada, patrimônios em nomes de terceiros e milhares de transferências que buscavam dificultar o rastreamento do dinheiro, disse a Justiça. Ele comprou bens de alto valor, incluindo um imóvel de R$ 1,1 milhão e quatro carros de luxo, sendo dois BMW, um Porsche e um Land Rover. Um dos carros foi registrado em nome de um terceiro, que foi condenado a 4 anos de reclusão em regime semiaberto pelo crime de ocultação de bens e poderá recorrer. Outros três veículos foram registrados em nome de sua empresa de fachada. A Justiça apontou que mais quatro homens participaram do esquema. Eles tinham sido condenados em dezembro, com penas de 5 anos e 9 meses de prisão em regime semiaberto para cada um e também poderão entrar com recurso. Combate ao 'gatonet' derruba centenas de sites e apps piratas no Brasil em 2025 Como funcionam tecnologias que extraem dados de celulares e que a PF tem usado no Brasil 'Sentimento horrível', diz brasileira vítima de foto editada de biquíni pelo Grok, IA de Musk Cerco à pirataria A investigação teve origem na segunda fase da Operação 404, que atua contra pirataria digital. A etapa, realizada em novembro de 2020, terminou com a prisão em flagrante do homem apontado como chefe do esquema, que foi liberado com o pagamento de fiança e retomou a operação ilegal. Nos últimos anos, autoridades têm realizado operações para impedir esquemas de oferta ilegal de serviços piratas de TV por assinatura e outras plataformas protegidas por direitos autorais. A Operação 404, que ganhou esse nome em referência ao erro que indica que o usuário acessou uma página não encontrada, existe desde 2019 sob coordenação do Ministério da Justiça e Segurança Pública. A oitava fase, realizada em novembro de 2025, bloqueou 535 sites e 1 aplicativo de streaming, além de cumprir 44 mandados de busca e apreensão, 4 ordens de prisão preventiva e 3 prisões em flagrante. No mesmo mês, uma operação na Argentina derrubou 22 aplicativos ilegais usados em TV boxes, que também são conhecidos como aparelhos de IPTV e caixinhas de TV. Foi a segunda fase de uma operação que já tinha derrubado outros 14 serviços. A investigação durou meses e encontrou escritórios que pareciam empresas legítimas, mas serviam como centrais da pirataria. Um deles tinha até mesmo um setor de Recursos Humanos para seus cerca de 100 funcionários. No esquema criado na Argentina, cada usuários dos serviços pagava até US$ 5 por mês (R$ 27), o que contribuiu para um faturamento anual estimado em mais de US$ 150 milhões (R$ 800 milhões). Cerco ao 'gatonet' derruba milhares de sites e apps piratas no Brasil

‘Dark patterns’: como big techs usam truques para manipular usuários e influenciar suas escolhas

Ícones do Facebook, Messenger, Instagram, WhatsApp e X Julian Christ/Unsplash Enquanto usuários, ainda temos controle sobre quais co...