segunda-feira, 9 de fevereiro de 2026

Caricatura no ChatGPT: como transformar sua foto em desenho com a IA


Trend da caricatura no ChatGPT Divulgação/OpenAI As redes sociais foram tomadas nos últimos dias por caricaturas feitas no ChatGPT que mostram usuários e suas profissões. Para participar da trend, basta enviar sua foto com um comando simples que dá as instruções para o assistente de inteligência artificial. Este é um comando que foi usado por muitos usuários: "Crie uma caricatura minha no meu ambiente de trabalho, levando em conta tudo o que você sabe sobre mim". A partir dele, o ChatGPT analisa sua foto e as informações que você já enviou para ele e tenta criar algo relacionado à sua profissão. Veja os vídeos que estão em alta no g1 O assistente também pode pedir mais detalhes e perguntar quais elementos você deseja que apareçam ou não na caricatura. Os desenhos são criados com o ImageGen, gerador de imagens da OpenAI, mas também podem ser feitos por outras plataformas. Esta é mais uma trend de desenhos no ChatGPT, que, em 2025, ganhou 1 milhão de usuários em uma hora com a trend do Studio Ghibli, estúdio de animação japonês que criou filmes como "A Viagem de Chihiro" e "Meu Amigo Totoro". LEIA TAMBÉM: Discord vai verificar idade e limitar acesso de menores na plataforma Moltbook, rede social das IAs, faz robôs conversarem entre si, mas o quanto disso é real? Fenômeno da IA agora assusta investidores? 'Chefões' tentam amenizar preocupações

Google libera recuperação de conta com selfie, mas é preciso se cadastrar antes; veja como fazer


Selfie para recuperar conta do Google Divulgação/Google O Google começou a aceitar uma verificação por selfies em vídeo para usuários que precisam recuperar suas contas. O método é útil principalmente em casos de roubo, perda ou troca do celular, já que o aparelho não poderia ser usado para confirmar sua identidade. O Google analisa o rosto que aparece no vídeo e, então, pode confirmar que a conta é realmente sua. ⚠️ Mas lembre-se: é preciso cadastrar a selfie com antecedência para que ela sirva de base para a comparação que será feita caso seja preciso recuperar a conta. O processo leva menos de um minuto, segundo o Google. O cadastro poderá ser feito em myaccount.google.com/video-verification e, de acordo com a empresa, está disponível para contas pessoais. Veja os vídeos que estão em alta no g1 Ele não é compatível com contas supervisionadas de crianças, do Google Workspace ou de usuários do Programa de Proteção Avançada. O processo de recuperação da conta por selfie inclui a gravação de um vídeo curto com movimentos como virar a cabeça. Ainda de acordo com o Google, o método garante que uma pessoa real aparece no vídeo e impede acesso por terceiros com uso de fotos ou deepfakes. Além do vídeo selfie, ainda é possível recuperar a conta com chaves de acesso, que funcionam como alternativas às senhas, e contatos de recuperação, em que as contas de amigos e familiares podem ajudar a acessar seu perfil novamente. LEIA TAMBÉM: Discord vai verificar idade e limitar acesso de menores na plataforma Moltbook, rede social das IAs, faz robôs conversarem entre si, mas o quanto disso é real? Fenômeno da IA agora assusta investidores? 'Chefões' tentam amenizar preocupações

É #FAKE vídeo de leão cheirando mulher que teria caído em jaula na Índia; cena foi criada com inteligência artificial


É #FAKE que vídeo mostre leão cheirando mulher que teria caído em jaula na Índia; cena foi criada com IA Reprodução Circula nas redes sociais um vídeo que mostra um leão cheirando uma mulher que supostamente teria caído em uma jaula de um zoológico na Índia. É #FAKE. selo fake g1 🛑 Como é o vídeo falso? Compartilhado no Instagram, X e YouTube desde janeiro, o vídeo mostra uma mulher sentada contra um muro enquanto um leão se aproxima para cheirá-la. Em seguida, o animal se distancia e olha para a câmera de celular supostamente que estaria filmando a cena. Um deste sábado (7) tem esta legenda: "Mulher cai em jaula de leões e gera pânico em zoológico na Índia". As publicações omitem que o registro foi criado com inteligência artificial (IA) — leia mais abaixo. Na seção de comentários, usuários afirmaram que o registro era um "milagre" e "livramento de Deus", enquanto poucos questionaram se o conteúdo era sintético. ⚠️ Por que a publicação é falsa? O Fato ou Fake submeteu submeteu o vídeo a duas plataformas de detecção de IA, e ambas indicaram uso desse recurso: Hive Moderation – 99,9% de probabilidade de o conteúdo ser sintético. Sightengine – 75% de probabilidade de o conteúdo ser sintético. Apontou ainda grandes chances de as imagens terem sido feitas com o Sora, modelo da OpenAI (dona do ChatGPT) para criação de vídeos por IA a partir de textos simples. Para encontrar a origem do vídeo, o Fato ou Fake usou a ferramenta InVID e fragmentou o material em vários frames (imagens estáticas). Depois, selecionou uma dessas "fotos" e fez uma busca reversa no Google Lens. Essa pesquisa serve para verificar a origem do conteúdo. O resultado levou para a publicação original do vídeo falso, compartilhada no Instagram de 1° de janeiro deste ano. O autor do material se descreve como "diretor de cinema de Bollywood" e criador de conteúdo com IA. Na legenda, ele escreveu "Momento de terror em um zoológico indiano🧨" e indicou apenas nas hashtags que o conteúdo havia sido produzido com o Sora 2. O Fato ou Fake não encontrou qualquer veículo de imprensa local que noticiou o suposto acidente no zoológico. Vídeos sintéticos de animais têm viralizado nas redes sociais. O Fato ou Fake já desmentiu as gravações de uma leoa cheirando um homem dormindo em rua e de um cachorro salvando criança de atropelamento por trem, casos que supostamente também teriam ocorrido na Índia. É #FATO: Gatas são nomeadas funcionárias oficiais de estação de trem no Japão É #FAKE que vídeo mostre leão cheirando mulher que teria caído em jaula na Índia; cena foi criada com IA Reprodução Veja também Vídeo de capivara pegando "carona" em cima de tatu foi feito com IA É #FAKE vídeo de capivara pegando 'carona' em cima de tatu VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Discord vai verificar idade e limitar acesso de menores na plataforma


Discord - representação Discord é uma plataforma de mensagens popular entre os jovens e jogadores de videogame — Foto: Reprodução internet O Discord anunciou nesta segunda-feira (9) que todos os usuários poderão passar por um processo de verificação de idade para "alterar determinadas configurações ou acessar conteúdos sensíveis". As mudanças começam a valer em março e serão aplicadas globalmente, tanto para novos usuários quanto para contas já existentes. Segundo a empresa, a análise da idade será feita por meio de reconhecimento facial ou do envio de um documento de identificação. O Discord afirmou ainda que, no futuro, pretende adotar outras formas de checagem, mas não detalhou quais serão. A plataforma também informou que usará um modelo para ajudar a identificar se uma conta pertence a um adulto, com o objetivo de evitar que o usuário precise passar repetidamente pelo processo de verificação. Veja os vídeos que estão em alta no g1 "Em algumas situações, poderá ser solicitado o uso de mais de um método, caso sejam necessárias informações adicionais para definir a faixa etária", afirmou a empresa. Após a verificação, o Discord passará a oferecer experiências adequadas à idade do usuário. Por exemplo, apenas contas com idade confirmada como adulta poderão acessar determinados canais e servidores. Além disso, mensagens de pessoas que o usuário pode não conhecer serão direcionadas para uma caixa separada, e apenas um adulto pode alterar essa configuração. A plataforma também enviará avisos quando houver solicitações de amizade de pessoas que o usuário talvez não conheça. Mais plataformas adotam medidas Crianças estudantes com celular em sala de aula de escola RDNE Stock project/Pexels O Discord não é a única empresa a adotar medidas para proteger menores de idade em suas plataformas. Há uma pressão global para que redes sociais e serviços digitais garantam ambientes mais seguros para crianças e adolescentes. Neste ano, o YouTube anunciou que vai adotar inteligência artificial para identificar se um usuário da plataforma tem menos de 18 anos. Segundo a empresa, a iniciativa faz parte das medidas de segurança voltadas a adolescentes. Em 2025, o Roblox anunciou a expansão do sistema de verificação de idade para todos os usuários da plataforma de jogos e informou que passaria a limitar a comunicação entre adultos e adolescentes. A verificação combina três mecanismos: tecnologia de estimativa de idade, com uso de leitura facial, verificação por documento de identidade e consentimento dos pais. No início deste ano, o TikTok anunciou uma nova tecnologia de detecção de idade em toda a Europa. O sistema analisa informações de perfil, vídeos publicados e sinais comportamentais para estimar se uma conta pode pertencer a um menor de idade. Na mesma linha, o ChatGPT passou a adotar um sistema de verificação de idade que promete ampliar a proteção de crianças e adolescentes. A mudança será implementada globalmente. LEIA TAMBÉM: Google aceita pagar US$ 68 milhões em processo por espionagem de seu assistente virtual Vazamento expõe dados internos da Nike, diz site Nada de arroz: saiba o que fazer se o celular cair na água Entenda nova regra que exige confirmação de idade de usuários por sites e aplicativos Vídeos de alimentos e objetos falantes criados com IA inundam as redes Meninas expõem rotina de casadas no TikTok

domingo, 8 de fevereiro de 2026

'AI Slop': o conteúdo 'tosco' gerado por inteligência artificial que tomou conta das redes sociais - e a reação contrária da internet


Parte do AI slop nas redes sociais é muito estranha, afirma Théodore Reprodução/Redes sociais via BBC Théodore se lembra do conteúdo "desleixado" de inteligência artificial (AI slop, na expressão em inglês) que o tirou do sério. A imagem mostrava dois meninos sul-asiáticos magérrimos e pobres. Por alguma razão, apesar de seus traços infantis, elas tinham barbas volumosas. Um deles não tinha mãos e tinha apenas um pé. O outro segurava um cartaz dizendo que era seu aniversário e pedindo curtidas (likes). Inexplicavelmente, os dois estavam sentados no meio de uma rua movimentada, sob chuva intensa, com um bolo de aniversário. A imagem reunia diversos indícios de que havia sido criada usando inteligência artificial (IA). Ainda assim, no Facebook, viralizou, com quase 1 milhão de curtidas e emojis de coração. Veja os vídeos em alta no g1 Veja os vídeos que estão em alta no g1 Algo 'estalou' em Théodore. "Aquilo me deixou perplexo. As imagens absurdas feitas por IA estavam por toda parte no Facebook e recebiam [um] monte de engajamento, sem qualquer escrutínio; era insano para mim", disse o estudante de 20 anos, de Paris (França). Théodore criou então uma conta na rede social X, antes conhecida como Twitter, chamada "Insane AI Slop" ("Desleixo Insano de IA", em tradução livre), e passou a expor e a ironizar publicações que encontrava e que enganava os usuários. Outros perceberam, e sua caixa de entrada logo ficou lotada de mensagens com contribuições repletas de exemplos do chamado AI slop. Théodore (à esquerda) iniciou uma campanha online para ironizar o AI slop nas redes sociais, incluindo uma imagem falsa (à direita) que recebeu quase 1 milhão de curtidas via BBC Com o tempo, temas recorrentes ficaram evidentes: religião, militares ou crianças pobres fazendo ações comoventes. "Crianças do terceiro mundo fazendo coisas impressionantes sempre fazem sucesso, assim como um menino pobre na África criando uma estátua insana a partir de lixo. Acho que as pessoas consideram isso edificante, então os criadores pensam: 'Ótimo, vamos inventar mais coisas desse tipo'", disse Théodore. A conta de Théodore logo ultrapassou 133 mil seguidores. A enxurrada de AI slop, que ele define como vídeos e imagens falsos, pouco convincentes e produzidos rapidamente, parece impossível de ser contida atualmente. Empresas de tecnologia abraçaram a inteligência artificial. Algumas afirmam estar começando a coibir certas formas desse tipo de conteúdo, embora muitos feeds de redes sociais ainda parecem dominados por esse tipo de conteúdo. Em apenas alguns anos, a experiência de usar as redes sociais mudou de forma profunda. Como isso aconteceu e que efeito terá sobre a sociedade? E, talvez a questão mais urgente de todas: o quanto os bilhões de usuários de redes sociais realmente se importam? A 'terceira fase' das redes sociais Em outubro, durante mais uma animada teleconferência de resultados, o CEO da Meta, Mark Zuckerberg, declarou com entusiasmo que as redes sociais haviam entrado em uma terceira fase, agora centrada na inteligência artificial. "A primeira foi quando todo o conteúdo vinha de amigos, familiares e contas que você seguia diretamente", disse. "A segunda foi quando adicionamos o conteúdo dos criadores. Agora, à medida que a IA torna mais fácil criar e remixar o conteúdo, vamos acrescentar ainda mais um grande conjunto de conteúdos", disse ele aos acionistas. A Meta, que controla as redes sociais Facebook, Instagram e Threads, não apenas permite que usuários publiquem conteúdo gerado por IA, como também lançou produtos para possibilitar a criação de ainda mais desse material. Geradores de imagem e vídeo e filtros cada vez mais poderosos passaram a ser oferecidos de forma ampla nas plataformas. Quando a BBC procurou a empresa para comentar, a Meta direcionou para a teleconferência de resultados de janeiro. Nela, o bilionário afirmou que a empresa estava apostando ainda mais em IA e não mencionou qualquer iniciativa para coibir o AI slop. "Em breve, veremos uma explosão de novos formatos de mídia, mais imersivos e interativos, e possíveis graças aos avanços da IA", disse Zuckerberg. O CEO do YouTube, Neal Mohan, escreveu em seu blog de perspectivas para 2026 que, apenas em dezembro, mais de 1 milhão de canais do YouTube usaram as ferramentas de IA da plataforma para criar conteúdo. "Assim como o sintetizador, o Photoshop e o CGI revolucionaram o som e o visual, a IA será uma dádiva para os criadores que estiverem prontos para adotá-la", escreveu. Mohan também reconheceu que há preocupações crescentes com "conteúdo de baixa qualidade, também conhecido como AI slop". Segundo ele, sua equipe trabalha em formas de aprimorar os sistemas para identificar e remover "conteúdo repetitivo e de baixa qualidade". O CEO da Meta, Mark Zuckerberg, disse aos investidores que a IA "torna mais fácil a criação e a remixagem de conteúdo". Reuters via BBC Mas ele também descartou fazer qualquer julgamento sobre o que deveria ou não ter espaço para prosperar. Ele ressaltou que conteúdos antes de nicho, como ASMR (sons relaxantes projetados para fazer o "couro cabeludo formigar") e jogos de videogame ao vivo, agora são populares. De acordo com pesquisa da empresa de inteligência artificial Kapwing, 20% do conteúdo mostrado a uma conta recém-criada no YouTube é agora "vídeo de IA de baixa qualidade". O vídeo de formato curto, em particular, foi um ponto crítico: a Kapwing descobriu que estava presente em 104 dos primeiros 500 clipes de YouTube Shorts exibidos para uma conta nova criada pelos pesquisadores. A economia dos criadores parece ser um grande impulsionador, já que pessoas e canais podem ganhar dinheiro com engajamento e visualizações. A julgar pelas visualizações de alguns canais e vídeos de IA, as pessoas de fato se interessam pelo conteúdo, ou, pelo menos, os algoritmos que ditam o que vemos se interessam. Segundo a Kapwing, o canal de AI slop com mais visualizações é o indiano Bandar Apna Dost, que acumula 2,07 bilhões de visualizações, rendendo aos criadores um ganho anual estimado de 4 milhões de dólares (cerca de R$ 21,05 milhões). Mas já existe uma espécie de reação contrária em curso. Sob muitos vídeos virais de IA, é agora comum ver uma enxurrada de comentários furiosos condenando o conteúdo. Monstros gigantes e parasitas mortais no abdômen Théodore, o estudante de Paris mencionado no início deste texto, ajudou a impulsionar essa onda de críticas. Usando sua influência recém-adquirida no X, ele reclamou a moderadores do YouTube sobre a enxurrada de desenhos animados estranhos gerados por IA que acumulavam um grande número de visualizações. Na avaliação dele, eram perturbadores e prejudiciais e, em alguns casos, pareciam ser direcionados a crianças. Os vídeos tinham títulos como Mum cat saves kitten from deadly belly parasites (Gata mãe salva filhote de parasitas intestinais mortais, em tradução livre) e exibiam cenas explícitas. Outro clipe curto (conhecido como Short) mostrava uma mulher de camisola que ingeria um parasita e depois se transformava em um monstro gigante e furioso, que acabava sendo curada por Jesus. Théodore considerou perturbadores alguns dos desenhos animados gerados por IA que encontrou no YouTube. A plataforma afirmou ter removido os vídeos denunciados por violarem suas diretrizes da comunidade. Reprodução/Perfil 'Sprung Nexus' no Youtube via BBC O YouTube removeu os canais, informando à reportagem que tomou a medida porque eles violavam suas diretrizes da comunidade. A empresa afirmou estar "focada em conectar nossos usuários a conteúdo de alta qualidade, independentemente de como ele foi feito", e disse trabalhar para "reduzir a disseminação de conteúdo de IA de baixa qualidade". Mas essa experiência, somada a muitas outras semelhantes, acabou desgastando Théodore. Até sites de estilo de vida aparentemente acolhedores, como o Pinterest, um fórum de receitas e ideias de decoração, foram afetados. Os usuários ficaram tão frustrados com a enxurrada de AI slop que a empresa introduziu um novo sistema de exclusão desse tipo de conteúdo. A medida, porém, depende de que os próprios usuários admitam que as imagens de casas perfeitas que publicam foram feitas por IA. Fúria na seção de comentários No meu feed, e estou ciente de que o feed de cada pessoa é diferente, inclusive os comentários, a reação adversa ao AI slop se tornou incessante. Seja no TikTok, no Threads, no Instagram ou no X, parece haver um movimento de pressão popular contra esse tipo de conteúdo. Em alguns casos, o número de curtidas em comentários críticos ao AI slop supera em muito o do post original. Foi o que ocorreu com um vídeo recente que mostrava um praticante de snowboard resgatando um lobo de um urso. O vídeo teve 932 curtidas, contra 2.400 curtidas em um comentário que dizia: "Levante a mão quem está cansado dessa m**da de IA". Mas, claro, tudo isso alimenta o monstro. Para as plataformas de redes sociais, todo engajamento é bom engajamento, manter as pessoas rolando a tela é o essencial. Então, afinal, importa se o vídeo incrível, comovente ou chocante que aparece no seu feed é real ou não? O efeito do 'cérebro podre' Emily Thorson, professora associada da Syracuse University (EUA), especializada em política, desinformação e percepções equivocadas, afirma que a questão depende do que as pessoas fazem na plataforma de rede social. "Se uma pessoa está em uma plataforma de vídeos curtos apenas para entretenimento, então o critério para avaliar se algo vale a pena é simplesmente 'é divertido?'", disse. "Mas, se alguém usa a plataforma para aprender sobre um tema ou para se conectar com membros de uma comunidade, pode perceber o conteúdo gerado por IA como mais problemático." A forma como o AI slop é apresentado também influencia a reação do público. Quando algo é claramente feito como piada, tende a ser recebido dessa forma. Mas, quando o AI slop é criado especificamente para enganar, pode provocar indignação das pessoas. Vi um vídeo recentemente gerado por IA que é emblemático: um registro extremamente realista, no estilo de documentário de história natural, de uma impressionante caçada de leopardo. Nos comentários, alguns espectadores foram enganados; outros ficaram em dúvida. "De que documentário isso é?", perguntou um comentarista. "Por favor, é a única maneira de [provar] que não é IA." Uma reação contrária ao AI slop vêm crescendo, com muitos comentários nos vídeos e fotos apontando quando algo é gerado por IA. Redes sociais via BBC Alessandro Galeazzi, da Universidade de Padova (Itália), pesquisa o comportamento nas redes sociais e as chamadas câmaras de eco (grupos de usuários em bolhas informacionais). Segundo Galeazzi, verificar se um vídeo foi ou não gerado por IA exige esforço mental e, no longo prazo, teme que as pessoas simplesmente deixem de checar. "Minha impressão é que a enxurrada de conteúdos sem sentido e de baixa qualidade gerados com IA pode reduzir ainda mais a capacidade de atenção das pessoas", afirmou. Galeazzi distingue o conteúdo criado com a intenção de enganar daquele AI slop mais cômico e obviamente falso, como peixes usando sapatos ou gorilas levantando peso na academia. Mas mesmo esse material mais fantasioso pode ter efeitos nocivos. Ele aponta o risco do brain rot (apodrecimento cerebral, em tradução livre), conceito que associa a exposição constante às redes sociais ao prejuízo das capacidades intelectuais. "Eu diria que o AI slop intensifica o efeito do brain rot, fazendo com que as pessoas consumam rapidamente conteúdos que sabem não apenas ser improváveis de reais, mas provavelmente sem significado ou interesse", disse. Cortes nas equipes de moderação Além do AI slop, parte do conteúdo produzido por IA pode ter implicações bem piores. Empresas controladas por Elon Musk, incluindo a xAI e a rede social X, foram recentemente obrigadas a alterar suas regras depois que o chatbot Grok estava sendo usado para despir digitalmente mulheres e crianças na rede X. Após o ataque dos Estados Unidos à Venezuela, vídeos falsos se espalharam mostrando pessoas chorando nas ruas e agradecendo aos EUA. Conteúdos assim podem moldar a opinião pública e dar a impressão de que a ação dos EUA foi mais popular do que de fato pode ter sido. Analistas dizem que isso é especialmente preocupante, já que tantas pessoas usam redes sociais como sua única fonte de notícias. Manny Ahmed, CEO da OpenOrigins, uma empresa que busca distinguir entre imagens geradas por IA e imagens reais, afirma que é necessário um novo método para que quem posta conteúdo autêntico possa provar que seus vídeos e fotos são genuínos. "Já chegamos ao ponto em que não é possível afirmar com confiança o que é real apenas pela inspeção", afirmou. "Em vez de tentar detectar o que é falso, precisamos de uma infraestrutura que permita que conteúdos autênticos provem publicamente sua origem." Pode parecer que essa seja uma tarefa que as empresas de redes sociais poderiam assumir. Mas muitas delas, incluindo a Meta e a X, reduziram suas equipes de moderação e adotaram uma abordagem mais coletiva. Hoje, tendem a confiar nos próprios usuários para rotular conteúdos como falsos ou enganosos. Redes sociais sem 'slop'? Se as grandes empresas de tecnologia parecem, em linhas gerais, satisfeitas em deixar o AI slop circular livremente, seria possível que uma nova rede social surgisse prometendo uma alternativa livre desse tipo de conteúdo e, com o tempo, desafiasse as plataformas dominantes? Isso parece improvável, porque a detecção de conteúdo gerado por IA está se tornando cada vez mais difícil. As máquinas já não conseguem identificar com precisão se um vídeo ou uma imagem são definitivamente falsos, e teriam ainda mais dificuldade para fazer o julgamento subjetivo sobre se determinado conteúdo pode ou não ser classificado como slop. Ainda assim, se uma nova rede social surgir e as pessoas "votarem com os pés", ou, mais precisamente, com os olhos e os polegares, isso pode provocar alguma mudança. Me lembro do surgimento da rede social concorrente BeReal, um aplicativo francês que ganhou popularidade durante a pandemia ao incentivar os usuários a mostrarem versões autênticas de si mesmos por meio de selfies sem filtros, feitas em horários aleatórios. O BeReal ainda não alcançou o mesmo patamar de gigantes como Facebook e Snapchat, e provavelmente nunca alcançará. Mas conseguiu chamar a atenção das outras plataformas, que, em alguns casos, copiaram a ideia. Talvez isso volte a acontecer se surgir um concorrente com uma proposta explícita contra o AI slop. Quanto a Théodore, ele sente que a batalha está perdida e que o AI slop veio para ficar. Apesar de ainda receber contribuições em sua caixa de mensagens, enviadas por seus atuais 133 mil seguidores, ele já não publica com a mesma frequência e, em grande medida, se resignou ao novo normal da vida online. "Ao contrário de muitos dos meus seguidores, não sou dogmaticamente contra a IA", disse. "Sou contra a poluição online de AI slop, feita para entretenimento rápido e para gerar visualizações."

Pingtok: quando jovens expõem o uso de drogas no TikTok


Ícone do aplicativo de compartilhamento de vídeos TikTok. AP/Matt Slocum/Arquivo Pupilas dilatadas, sob o efeito de drogas em frente à câmera e, geralmente, sozinhos. Na rede social TikTok, cada vez mais jovens expõem publicamente seus momentos de euforia induzidos por entorpecentes. Os vídeos alcançam milhões de visualizações — frequentemente sob a hashtag #Pingtok. Essa tendência representa uma nova visibilidade do uso de drogas nas redes sociais. O que antes acontecia em segredo agora é filmado, estetizado e compartilhado publicamente. As consequências podem ser fatais e, muitas vezes, invisíveis para os pais. "Desde que comecei a conscientizar sobre vícios no TikTok, tenho recebido muitas mensagens. Isso é assustador porque geralmente são de menores de idade", disse a influenciadora Sarah em entrevista à DW. Ela própria se tornou viciada em drogas aos 15 anos. Hoje, aos 26 anos, ela educa as pessoas no TikTok sobre seu vício e sua abstinência. Muitos dos seus seguidores que foram levados a usar drogas através do TikTok são ainda mais jovens. "Eles não têm com quem conversar sobre isso, e alguns deles me escrevem coisas muito intensas sobre suas experiências e traumas", afirmou Sarah. Como chegamos a esse ponto? União Europeia acusa TikTok de 'design viciante' e cobra mudanças para proteger crianças e adolescentes Veja o que países estão fazendo para regular o acesso de crianças às redes sociais Veja os vídeos que estão em alta no g1 Um clique para as drogas O TikTok revela como se tornou fácil para os jovens entrarem em contato com conteúdo relacionado a drogas. Basta uma busca rápida pela hashtag #Pingtok e vídeos de adolescentes sob efeito de drogas aparecem um após o outro. Quanto mais você rola a tela, mais vídeos o algoritmo exibe. Quando questionado pela DW sobre por que o TikTok não adota medidas mais enérgicas contra a distribuição desse tipo de conteúdo, um porta-voz da plataforma disse que a rede age rapidamente para remover as postagens. "A segurança e o bem-estar da nossa comunidade são nossa principal prioridade. Proibimos a exibição, a publicidade ou a venda de drogas ou outras substâncias e as removemos da plataforma – mais de 99% do conteúdo que viola essas regras é removido antes mesmo de ser denunciado." O que está por trás dessa tendência O Pingtok, no entanto, mostra como é fácil burlar essas regras. Os usuários se comunicam por meio de códigos. Eles usam emojis, sons e novos termos para burlar a moderação da plataforma. Em vez de mostrar o uso visível de drogas, por exemplo, exibem apenas suas pupilas dilatadas. Essa, inclusive, é a origem do termo Pingtok. "Ping" é uma gíria utilizada para se referir ao consumo da droga MDMA. Essa chamada linguagem algorítmica, também conhecida como algospeak, dificulta a identificação clara do conteúdo e sua remoção rápida. Mesmo quando os termos são bloqueados, os usuários se adaptam rapidamente: a hashtag #Pingtok foi bloqueada pelo TikTok, mas ainda circulam variações como #Pingtokk ou #Pintok. Tráfico de drogas no TikTok Particularmente problemático é o fato de o TikTok estar se tornando um mercado informal. "Você nem precisa mais sair de casa. Pode conseguir tudo o que quiser, direto do seu quarto", disse a influenciadora Sarah. Uma olhada nas seções de comentários dos vídeos revela o que ela quer dizer. Consultas de busca como "quem está vendendo?" ou "preciso de alguma coisa em Berlim" geram respostas diretas de traficantes. Eles sinalizam sua disponibilidade para vender por meio de símbolos como um plugue de carregamento e, em seguida, convidam os usuários para grupos de bate-papo no aplicativo de mensagens Telegram. Os jovens sempre experimentaram drogas, mas tornar isso público de maneira voluntária é algo que está mudando tudo, diz Sarah. No passado, as pessoas fechavam as cortinas e usavam drogas em segredo com outras pessoas. Hoje, elas ligam suas câmeras e usam drogas sozinhas – por cliques no TikTok. Dados atuais mostram o quão perigoso esse uso descontrolado pode ser. De acordo com o Departamento Federal de Polícia Criminal, as mortes relacionadas a drogas na Alemanha quase dobraram em dez anos. Entre os menores de 30 anos, o número de mortes aumentou 14% em 2024. Países querem proibir redes para menores Estudos dos EUA também mostram que mais de dois terços das overdoses fatais acontecem em casa, muitas vezes porque ninguém pode intervir. Uma ligação direta com tendências do TikTok, como o Pingtok, não foi comprovada. No entanto, especialistas alertam que o isolamento e a exposição a conteúdo relacionado a drogas nas redes sociais podem tornar o uso de drogas mais perigoso. Internacionalmente, aumenta a pressão política sobre as redes sociais. Alguns governos querem proteger melhor os jovens de conteúdos prejudiciais. Em dezembro, a Austrália se tornou o primeiro país a introduzir uma proibição de redes sociais para menores de 16 anos. O Reino Unido, a Dinamarca e, mais recentemente, a França planejam restrições semelhantes. A União Europeia (UE) avalia se as plataformas estão cumprindo adequadamente suas obrigações em relação à proteção de menores e está discutindo restrições de acesso. Mas as proibições são realmente a solução? 'Não sabia o quanto minha filha era viciada': brasileiros contam como foi a proibição de redes sociais na Austrália 'Vejo você em 4 anos': adolescentes na Austrália se despedem das redes antes de proibição Redes sociais também podem ser redes de apoio "Há um aspecto que muitas vezes é negligenciado no debate sobre o uso de drogas e as redes sociais", disse a pesquisadora Layla Bouzoubaa em entrevista à DW. Ela destacou que existem pessoas que usam essas plataformas para encontrar apoio, e que "isso não tem nada a ver com glorificação." Bouzoubaa e sua equipe analisaram centenas de vídeos do TikTok sobre o tema do uso de substâncias. Eles descobriram que mais da metade do conteúdo trata de prevenção ao uso de drogas, superação do vício ou busca por ajuda. Uma remoção completa de todo o conteúdo ou uma proibição da plataforma pode ser perigosa para esses grupos, alertou Bouzoubaa. "Não queremos cortar esse apoio vital para as pessoas enquanto moderamos o conteúdo de forma extremamente rigorosa. Se as plataformas querem mudar algo, precisam envolver as comunidades afetadas." Prevenção também está disponível online Essa também é a abordagem de Sarah, que não usa o TikTok para exaltar as drogas, mas para alertar sobre as consequências reais do vício. "Os agentes de combate às drogas e os assistentes sociais devem estar preparados para o fato de que a maioria das coisas acontece online hoje em dia", disse ela. "É bom que eles vão às ruas ou às escolas. Mas também precisam ficar de olho no ambiente online, principalmente porque muitos usuários são menores de idade." Veja mais: Brasil também terá regras para adolescentes nas redes: veja quais Grok: ferramenta gratuita da rede social X é usada para criar imagens íntimas falsas

sábado, 7 de fevereiro de 2026

A ofensiva da União Europeia para enquadrar as big techs americanas


Bandeiras da UE na sede em Bruxelas, Bélgica Yves Herman/Reuters A investigação contra a rede social TikTok anunciada pela União Europeia nesta sexta-feira (06/02) por suspeita de "viciar" crianças e adolescentes é a mais recente de uma série de embates que autoridades do bloco têm protagonizado com gigantes americanas do ramo de tecnologia nos últimos anos. As agências reguladoras europeias apuram desde suspeitas de práticas anticompetitivas e questões éticas associadas ao uso de inteligência artificial (IA) até violações das regras sobre conteúdo online para as redes sociais. Além da ação contra o TikTok, recentemente a Comissão Europeia mirou também o chatbot de IA Grok, do bilionário Elon Musk, por suspeita de disseminação de conteúdo ilegal, como a geração de imagens falsas sexualizadas. A rede social X, também pertencente a Musk, foi acusada de violar diversos artigos da Lei de Serviços Digitais (DSA, na sigla em inglês) da União Europeia (UE). Veja os vídeos que estão em alta no g1 'Sentimento horrível. Me sinto suja', diz brasileira vítima de foto editada de biquíni pelo Grok, IA de Musk Veja o que países estão fazendo para regular o acesso de crianças às redes sociais Veja, abaixo, quais grandes empresas estão sob a mira das autoridades europeias, e por quê. Alphabet Google REUTERS/Dado Ruvic A Comissão Europeia anunciou em dezembro a abertura de uma investigação antitruste envolvendo o Google, da Alphabet. O objetivo é apurar se a companhia estaria violando as regras de concorrência da UE ao usar material online de publicadores de conteúdo e da plataforma de vídeos YouTube para fins de inteligência artificial, o que colocaria outros desenvolvedores de IA em "desvantagem". A Comissão aplicou ao Google uma multa antitruste de 2,95 bilhões de euros (R$ 15,4 bilhões) em 5 de setembro por práticas anticompetitivas em seu negócio de tecnologia de publicidade. Em setembro de 2024, o Google venceu um recurso contra uma multa antitruste de 1,49 bilhão de euros imposta por prejudicar concorrentes em publicidade de mecanismos de busca online. Uma semana antes, o Google pedeu uma batalha contra uma multa de 2,42 bilhões de euros imposta há alguns anos pelos reguladores antitruste da UE, por usar seu próprio serviço de comparação de preços para obter uma vantagem injusta sobre concorrentes europeus menores. Em setembro de 2024, o regulador antitruste britânico concluiu provisoriamente que o Google havia abusado de sua posição dominante na publicidade digital para restringir a concorrência. Um mês antes, a agência havia iniciado investigações sobre a colaboração da Alphabet e da Amazon com a startup de IA Anthropic. Em março de 2024, o órgão francês de defesa da concorrência afirmou ter multado o Google em 250 milhões de euros (R$ 1,5 bilhão) por violações relacionadas às regras de propriedade intelectual da UE em suas relações com editores de mídia. Amazon Logo da Amazon, gigante da tecnologia. REUTERS/Dado Ruvic/Illustration/File Photo O órgão antitruste da Alemanha proibiu a Amazon de impor um teto de preços a varejistas online no mercado alemão e, pela primeira vez, reivindicou vários milhões de euros que a empresa americana teria obtido através de comportamento anticompetitivo. O Tribunal Geral da União Europeia rejeitou em novembro um pedido da Amazon para revogar sua designação como plataforma sujeita a requisitos mais rigorosos sob as regras de conteúdo online da UE. Amazon demite cerca de 16 mil funcionários Apple Logo da Apple Unsplash/ Zhiyue A agência reguladora de concorrências da Itália informou em dezembro que multou a Apple e duas de suas divisões em 98,6 milhões de euros (R$ 608 milhões) por suposto abuso de sua posição dominante no mercado de aplicativos móveis. Em outubro de 2025, duas organizações de direitos civis apresentaram uma queixa aos reguladores antitruste da UE sobre os termos e condições da App Store e dos dispositivos da Apple. No mesmo mês, a Autoridade de Concorrência e Mercados do Reino Unido designou a Apple e o Google como detentoras de "status de mercado estratégico", o que confere à agência poderes para exigir alterações específicas. Em abril de 2025, a Apple foi multada em 500 milhões de euros e a Meta em 200 milhões de euros, sob a Lei dos Mercados Digitais (DMA) da UE. As autoridades europeias entenderam que as duas empresas falharam com a sua obrigação de oferecer aos consumidores opções de serviços que demandam menos dados pessoais dos usuários. Em março do mesmo ano, a Apple perdeu um recurso contra uma avaliação regulatória que a sujeita a controles mais rigorosos na Alemanha. Em setembro de 2024, a Apple perdeu a batalha contra uma ordem dos reguladores da UE para pagar 13 bilhões de euros em impostos atrasados à Irlanda, como parte de uma repressão mais ampla do bloco europeu contra acordos privilegiados. Bruxelas ainda multou a empresa em 1,84 bilhão de euros em março de 2024 por frustrar a concorrência de rivais no streaming de música. Em julho de 2024, os reguladores europeus afirmaram que a Apple concordou em abrir seu sistema de pagamentos móveis por aproximação a concorrentes para encerrar uma investigação antitruste da UE. Meta Logo da Meta, controladora do Facebook, em foto tirada em 28 de outubro de 2021 Justin Sullivan / Getty Images North America / Getty Images via AFP Em dezembro, a Comissão Europeia abriu uma investigação antitruste contra a Meta, dona do WhatsApp, Instagram, Facebook e Threads, sobre o uso de recursos de IA no aplicativo de mensagens WhatsApp. Em novembro de 2024, a empresa de Mark Zuckerberg foi multada em 797,72 milhões de euros por práticas abusivas que beneficiavam sua plataforma de comércio online Facebook Marketplace e, em julho de 2024, foi acusada de descumprir a DMA em seu novo modelo de publicidade paga ou com consentimento. Microsoft Logo da Microsoft Unsplash Em junho de 2024, a Comissão Europeia acusou a Microsoft de incluir ilegalmente seu aplicativo de chat e vídeo Teams em sua suíte de aplicativos Office. TikTok Logo do aplicativo Tiktok aparece sobre tela de um celular Kiichiro Sato/AP Nesta sexta-feira (6), os reguladores de tecnologia da UE acusaram a rede social de empregar um "design viciante" para manter usuários por mais tempo na plataforma, o que estaria prejudicando especialmente crianças e adolescentes, e ameaçaram multar a empresa chinesa caso ela não tome providências. Em outubro de 2025, a plataforma também foi acusada pela Comissão Europeia de, junto com a Meta, descumprir seu dever de viabilizar a pesquisadores o acesso adequado a dados públicos. Em maio do mesmo ano, o TikTok foi acusado de descumprir a determinação da DSA de publicar um repositório de anúncios que permite que pesquisadores e usuários detectem anúncios fraudulentos. A empresa evitou uma multa após prometer concessões em termos de transparência. X (ex-Twitter) Rede social X, ex-Twitter Kelly Sikkema/Unsplash A polícia francesa revistou os escritórios da rede social de Elon Musk em 3 de fevereiro e os promotores ordenaram que o bilionário respondesse a perguntas em uma investigação que está em andamento. As autoridades francesas investigam se o chatbot Grok estaria disseminando conteúdo ilegal, como imagens sexualizadas manipuladas, na UE. Pelo mesmo motivo, o Grok também está sob investigação das autoridades europeias e britânicas. Em dezembro, o X foi multado em 120 milhões de euros pelos reguladores de tecnologia da UE por violar regras de conteúdo online, sendo esta a primeira sanção sob a Lei de Serviços Digitais. Segundo a Comissão Europeia, as infrações da empresa de Musk incluem "design enganoso" de seu selo de verificação azul, falta de transparência de seu repositório de publicidade e falta de acesso a dados públicos para pesquisadores. Musk, dono do X, diz que UE ‘deveria ser abolida’ após multar a rede social em mais de R$ 700 milhões Veja mais: Por que o Moltbook, rede social das IAs, pode não ser a revolução que promete

Caricatura no ChatGPT: como transformar sua foto em desenho com a IA

Trend da caricatura no ChatGPT Divulgação/OpenAI As redes sociais foram tomadas nos últimos dias por caricaturas feitas no ChatGPT q...