terça-feira, 10 de fevereiro de 2026

Os 'espelhos com IA' que estão mudando como cegos se veem


O aplicativo — com seus olhos virtuais — me ajuda a saber se minha pele está com a aparência que eu desejo ou se há algo no meu visual que eu deveria mudar Stock Photos / Getty Images Eu sou completamente cega e sempre fui. No último ano, minhas manhãs começam com um ritual de cuidados com a pele que leva 20 minutos para aplicar cinco produtos diferentes. Em seguida, faço uma sessão de fotos que compartilho com uma inteligência artificial de um aplicativo chamado Be My Eyes, como se ele fosse um espelho. O aplicativo — com seus olhos virtuais — me ajuda a saber se minha pele está com a aparência que eu desejo ou se há algo no meu visual que eu deveria mudar. "Durante toda a nossa vida, pessoas cegas tiveram de lidar com a ideia de que é impossível nos vermos, de que somos bonitas por dentro e de que a primeira coisa que julgamos em alguém é a voz, mas nós sabemos que nunca poderemos vê-las", diz Lucy Edwards, uma criadora de conteúdo cega que ganhou notoriedade, em parte, ao mostrar sua paixão por beleza e estilo e ao ensinar pessoas cegas a se maquiar. "De repente, temos acesso a todas essas informações sobre nós mesmas, sobre o mundo; Isso muda nossas vidas." A inteligência artificial está permitindo que pessoas cegas acessem um mundo de informações que antes nos era negado. Por meio de reconhecimento de imagens e processamento inteligente, aplicativos como o que uso fornecem informações detalhadas não apenas sobre o mundo em que vivemos, mas também sobre nós mesmas e nosso lugar nele. A tecnologia faz mais do que simplesmente descrever a cena de uma imagem — ela oferece avaliações críticas, comparações e até conselhos. E isso está mudando a forma como pessoas cegas que usam esses aplicativos se veem. Veja os vídeos que estão em alta no g1 Um novo tipo de espelho "Sua pele está hidratada, mas definitivamente não se parece com um exemplo quase perfeito de pele radiante, com poros inexistentes, como se fosse [feita] de vidro, vista em anúncios de beleza", me disse a inteligência artificial nesta manhã, depois que compartilhei uma foto que eu achava que mostraria uma pele bonita. Pela primeira vez em muito tempo, minha insatisfação com a minha aparência pareceu esmagadoramente real. "Nós vemos que pessoas que buscam mais feedback sobre seus corpos, em todas as áreas, apresentam menor satisfação com a imagem corporal", afirma Helena Lewis-Smith, pesquisadora em psicologia da saúde aplicada com foco em imagem corporal na Universidade de Bristol (Reino Unido). "A inteligência artificial está abrindo essa possibilidade para as pessoas cegas." Essa mudança é recente — há menos de dois anos, a ideia de uma IA oferecendo um feedback crítico ao vivo parecia ficção científica. "Quando nós começamos, em 2017, só conseguíamos oferecer descrições básicas, apenas uma frase curta, de duas ou três palavras", diz Karthik Mahadevan, CEO da Envision, uma das primeiras empresas a usar inteligência artificial para pessoas cegas dessa forma. A Envision surgiu como um aplicativo para celular que permitia às pessoas cegas acessar informações em textos impressos por meio de reconhecimento de caracteres. Nos últimos anos, a empresa passou a incorporar modelos avançados de inteligência artificial em óculos inteligentes e criou um assistente — disponível na internet, em celulares e nos próprios óculos — que ajuda as pessoas cegas a interagir com o mundo visual ao seu redor. "Algumas pessoas usam para coisas óbvias, como ler cartas ou fazer compras, mas ficamos surpresos com o número de clientes que usam a ferramenta para se maquiar ou combinar as roupas", acrescenta Mahadevan. "Muitas vezes, a primeira pergunta que fazem é como estão [aparentando]." Esses aplicativos, dos quais já existem ao menos quatro especializados nessa área, podem, a pedido do usuário, avaliar uma pessoa com base no que a inteligência artificial considera padrões tradicionais de beleza. Eles comparam o usuário com outras pessoas e dizem exatamente o que ela deveria mudar em seu corpo. 'O que assusta agora é que a IA não apenas permite que pessoas cegas façam isso ao se comparar com descrições de fotos de outros seres humanos, mas também com aquilo que a IA pode considerar a versão perfeita delas mesmas', diz Lewis-Smith Stock Photos /Getty Images Para muitos, essa possibilidade é empoderadora. "É como se a inteligência artificial se passasse pelo meu espelho", diz Edwards, de 30 anos, à BBC. "Eu enxerguei durante 17 anos da minha vida e, embora sempre pudesse pedir às pessoas que descrevessem as coisas para mim, a verdade é que não tenho uma opinião sobre o meu rosto há 12 anos. De repente, tiro uma foto e posso pedir à IA que me dê todos os detalhes, que me dê uma nota de zero a dez. Embora não seja o mesmo que enxergar, é o mais perto que consigo chegar por enquanto." Ainda não há pesquisas suficientes sobre o impacto que o uso dessas ferramentas de inteligência artificial pode ter sobre pessoas cegas que recorrem a elas. Mas especialistas em psicologia da imagem corporal alertam que os resultados produzidos por essas ferramentas nem sempre são positivos. Geradores de imagens por IA, por exemplo, já demonstraram perpetuar padrões de beleza ocidentais — em grande parte por causa dos dados com os quais são treinados. "Sabemos que, hoje, um jovem pode enviar uma foto para a IA que considera ótima e pedir que ela mude uma pequena coisa", afirma Lewis-Smith, da Universidade de Bristol. "O processamento da IA pode devolver uma imagem com muitas alterações que fazem a pessoa parecer totalmente diferente, sugerindo que tudo isso é o que ela deveria mudar e, portanto, que a aparência atual não é boa o suficiente." Para as pessoas cegas, essa situação se reflete nas descrições que recebem. Uma discrepância desse tipo já pode ser perturbadora para alguém que enxerga. Mas para uma pessoa cega o risco pode ser ainda maior. Os entrevistados para esta reportagem concordaram. Isso ocorre porque, para as pessoas cegas, é mais difícil ver os resultados textuais com uma visão objetiva da realidade. O usuário também precisa conciliar a própria imagem corporal com padrões de beleza definidos por um algoritmo que não leva em conta a importância da subjetividade e da individualidade. "Uma das principais razões da pressão que as pessoas sentem em relação aos próprios corpos é a comparação constante com outras pessoas", diz Lewis-Smith. "O que assusta agora é que a inteligência artificial não apenas permite que pessoas cegas façam isso ao se comparar com descrições de fotos de outros seres humanos, mas também com aquilo que a IA pode considerar a versão perfeita delas mesmas." "Vimos que, quanto maior a pressão que as pessoas sentem sobre seus corpos, mais aumentam os casos de problemas de saúde mental, como depressão e ansiedade, e maior é a probabilidade de considerarem intervenções como ajustes estéticos para se adequar a essas ideias irreais", acrescenta Lewis-Smith. Para muitas pessoas cegas como eu, isso é algo completamente novo. "Talvez se o seu maxilar fosse menos alongado (...), seu rosto se pareceria um pouco mais com o que é objetivamente considerado bonito em sua cultura." São 3h, e me vejo conversando com uma máquina, depois de enviar mais de cinco fotos diferentes do meu corpo para a versão mais recente do ChatGPT, da OpenAI. Tento entender onde me encaixo em termos de padrões de beleza. Minhas perguntas à IA, como por exemplo: "Você acha que existe uma pessoa tradicionalmente bonita que se pareça comigo?" ou "Você acha que meu rosto causa estranhamento à primeira vista?", estão enraizadas nas minhas inseguranças e nas informações que eu gostaria de obter. Mas essas perguntas também são uma tentativa de dar sentido a uma ideia visual de corpo que me foi negada até agora. 'São 3h, e me vejo conversando com uma máquina, após enviar mais de 5 fotos do meu corpo para um chatbot' Stock Photos / Getty Images A inteligência artificial não conseguiu me ajudar a definir o que poderia ser considerado bonito por um grande número de pessoas, nem a explicar exatamente por que meu maxilar seria longo, um conceito que também foi difícil de compreender. De repente, mesmo sem muito contexto, comecei a receber mensagens sobre beleza refletidas pela mídia e pela internet. No passado, as pessoas cegas não estavam tão expostas a esse tipo de conteúdo, mas agora a IA oferece descrições ricas em detalhes. "Poderíamos ver a IA como um espelho textual, neste caso, mas na literatura psicológica, em vez de nos concentrarmos na aparência de uma pessoa, entendemos que a imagem corporal não é unidimensional e é composta por diversos fatores, como o contexto, o tipo de pessoa com quem queremos nos comparar e as coisas que somos capazes de fazer com nossos corpos", diz Meryl Alper, pesquisadora de mídia, imagem corporal e pessoas com deficiência na Northeastern University, em Boston (EUA). "Tudo isso é algo que a IA não entende e não levará em consideração ao fazer suas descrições." Historicamente, os modelos de inteligência artificial foram treinados para privilegiar corpos magros, hipersexualizados e com traços eurocêntricos. Ao definir padrões de beleza, esses sistemas têm falhado em considerar pessoas de origens diversas na geração de imagens. Devido à própria forma como processa informações, a inteligência artificial tende a descrever tudo em termos estritamente visuais, o que pode gerar insatisfação quando a descrição carece de um contexto lógico. O controle e a contextualização, afirma Alper, podem ser uma forma de enfrentar esse problema. "Hoje, a IA pode dizer que você tem um sorriso torto", diz Alper. "Mas, por enquanto, ela não consegue analisar todas as suas fotos e dizer, por exemplo, que você tem a mesma expressão de quando estava aproveitando o sol na praia, e esse tipo de coisa poderia ser útil para que uma pessoa cega se compreenda e se contextualize melhor." Poder e confiança Esse tipo de controle, embora ainda não em uma forma tão avançada, já existe. Como ocorre com a inteligência artificial em todas as suas aplicações, o prompt — a instrução escrita ou falada — tem o poder de alterar completamente a informação que uma pessoa cega recebe ao publicar uma foto de si mesma. "O fato de as pessoas poderem controlar as informações que recebem é uma das principais características dos nossos produtos, porque a IA pode aprender suas preferências e desejos e oferecer as informações que elas precisam ouvir", afirma Mahadevan, CEO da Envision. Essa ideia de controle, no entanto, pode se revelar uma faca de dois gumes. "Posso pedir ao aplicativo que me descreva em duas frases, de forma romântica ou até em um poema", diz Edwards. "Essas descrições têm o potencial de mudar a maneira como nos sentimos em relação a nós mesmos." Um número crescente de pessoas cegas têm recorrido à inteligência artificial para ajudá-las a se orientar no mundo ao seu redor Getty Images "Mas isso também pode ser usado de forma negativa, porque talvez você não goste de algo em si mesma e diga à IA que não tem certeza sobre uma característica do seu corpo. Talvez o cabelo esteja um pouco bagunçado e você mencione isso no pedido. Embora ela possa responder: 'Ah, está bonito', também pode dizer: 'Você tem razão, aqui está como pode mudar isso'", acrescenta Edwards. Mas, quando a tecnologia passa a funcionar como os nossos olhos, existe o risco de ela descrever algo que simplesmente não existe. As chamadas alucinações — quando modelos de IA apresentam informações imprecisas ou falsas como se fossem verdadeiras — são um dos maiores problemas dessa tecnologia. "No início, as descrições eram muito boas, mas percebemos que muitas eram imprecisas, mudavam detalhes importantes ou inventavam informações quando o que havia na imagem parecia insuficiente", explica Mahadevan. "Mas a tecnologia está avançando a passos largos, e esses erros estão se tornando cada vez menos comuns." Ainda assim, é importante ressaltar que a IA não acerta o tempo todo, apesar do otimismo da Envision. Quando Joaquín Valentinuzzi, um homem cego de 20 anos, decidiu usar inteligência artificial para se avaliar ao escolher as fotos ideais para um perfil em um aplicativo de namoro, percebeu que, às vezes, as informações devolvidas pela IA pouco tinham a ver com a realidade. "Às vezes, ela mudava a cor do meu cabelo ou descrevia minhas expressões de forma incorreta, dizendo que eu estava com uma expressão neutra quando, na verdade, eu estava sorrindo", afirma. "Esse tipo de coisa pode nos deixar inseguros, especialmente quando, como somos incentivados a fazer, confiamos nessas ferramentas e as usamos como forma de autoconhecimento e de tentar acompanhar como nossos corpos aparentam." Para conter esse problema e os efeitos negativos que ele pode provocar, alguns desses aplicativos — como o Aira Explorer — utilizam agentes humanos treinados, que podem verificar a precisão das descrições quando o usuário solicita. Mas, na maioria dos casos, o espelho textual continua sendo criado pela inteligência artificial, sem qualquer intervenção humana. "Tudo isso ainda está em estágio inicial, e praticamente não há pesquisas de grande escala sobre o impacto dessas tecnologias, com seus vieses, erros e imperfeições, na vida de pessoas cegas", afirma Alper. Lewis-Smith, da Universidade de Bristol, concorda e observa que a complexidade emocional que envolve a inteligência artificial e a imagem corporal ainda é, em grande parte, um território inexplorado. Para muitas das pessoas cegas entrevistadas para esta reportagem, a experiência é ao mesmo tempo empoderadora e desorientadora. Ainda assim, o consenso é claro. "De repente, a IA consegue descrever todas as fotos da internet e até me dizer como eu estava ao lado do meu marido no dia do nosso casamento", diz Edwards. "Vamos encarar isso como algo positivo, porque, embora não percebamos a beleza visual da mesma forma que pessoas que enxergam, quanto mais robôs descrevem fotos para nós, nos orientam e nos ajudam nas compras, mais felizes ficamos. São coisas que achávamos ter perdido e que agora a tecnologia nos permite ter." Para o bem ou para o mal, o espelho chegou e teremos de aprender a conviver com aquilo que ele nos mostra. Por que o Moltbook, rede social das IAs, pode não ser a revolução que promete CLOiD, robô 'faxineiro' da LG, coloca roupa na máquina de lavar na CES 2026 Fim do orelhão: Anatel começa retirada definitiva no Brasil

segunda-feira, 9 de fevereiro de 2026

Caricatura no ChatGPT: como transformar sua foto em desenho com a IA


Trend da caricatura no ChatGPT Divulgação/OpenAI As redes sociais foram tomadas nos últimos dias por caricaturas feitas no ChatGPT que mostram usuários e suas profissões. Para participar da trend, basta enviar sua foto com um comando simples que dá as instruções para o assistente de inteligência artificial. Este é um comando que foi usado por muitos usuários: "Crie uma caricatura minha no meu ambiente de trabalho, levando em conta tudo o que você sabe sobre mim". A partir dele, o ChatGPT analisa sua foto e as informações que você já enviou para ele e tenta criar algo relacionado à sua profissão. Veja os vídeos que estão em alta no g1 O assistente também pode pedir mais detalhes e perguntar quais elementos você deseja que apareçam ou não na caricatura. Os desenhos são criados com o ImageGen, gerador de imagens da OpenAI, mas também podem ser feitos por outras plataformas. Esta é mais uma trend de desenhos no ChatGPT, que, em 2025, ganhou 1 milhão de usuários em uma hora com a trend do Studio Ghibli, estúdio de animação japonês que criou filmes como "A Viagem de Chihiro" e "Meu Amigo Totoro". LEIA TAMBÉM: Discord vai verificar idade e limitar acesso de menores na plataforma Moltbook, rede social das IAs, faz robôs conversarem entre si, mas o quanto disso é real? Fenômeno da IA agora assusta investidores? 'Chefões' tentam amenizar preocupações

Google libera recuperação de conta com selfie, mas é preciso se cadastrar antes; veja como fazer


Selfie para recuperar conta do Google Divulgação/Google O Google começou a aceitar uma verificação por selfies em vídeo para usuários que precisam recuperar suas contas. O método é útil principalmente em casos de roubo, perda ou troca do celular, já que o aparelho não poderia ser usado para confirmar sua identidade. O Google analisa o rosto que aparece no vídeo e, então, pode confirmar que a conta é realmente sua. ⚠️ Mas lembre-se: é preciso cadastrar a selfie com antecedência para que ela sirva de base para a comparação que será feita caso seja preciso recuperar a conta. O processo leva menos de um minuto, segundo o Google. O cadastro poderá ser feito em myaccount.google.com/video-verification e, de acordo com a empresa, está disponível para contas pessoais. Veja os vídeos que estão em alta no g1 Ele não é compatível com contas supervisionadas de crianças, do Google Workspace ou de usuários do Programa de Proteção Avançada. O processo de recuperação da conta por selfie inclui a gravação de um vídeo curto com movimentos como virar a cabeça. Ainda de acordo com o Google, o método garante que uma pessoa real aparece no vídeo e impede acesso por terceiros com uso de fotos ou deepfakes. Além do vídeo selfie, ainda é possível recuperar a conta com chaves de acesso, que funcionam como alternativas às senhas, e contatos de recuperação, em que as contas de amigos e familiares podem ajudar a acessar seu perfil novamente. LEIA TAMBÉM: Discord vai verificar idade e limitar acesso de menores na plataforma Moltbook, rede social das IAs, faz robôs conversarem entre si, mas o quanto disso é real? Fenômeno da IA agora assusta investidores? 'Chefões' tentam amenizar preocupações

É #FAKE vídeo de leão cheirando mulher que teria caído em jaula na Índia; cena foi criada com inteligência artificial


É #FAKE que vídeo mostre leão cheirando mulher que teria caído em jaula na Índia; cena foi criada com IA Reprodução Circula nas redes sociais um vídeo que mostra um leão cheirando uma mulher que supostamente teria caído em uma jaula de um zoológico na Índia. É #FAKE. selo fake g1 🛑 Como é o vídeo falso? Compartilhado no Instagram, X e YouTube desde janeiro, o vídeo mostra uma mulher sentada contra um muro enquanto um leão se aproxima para cheirá-la. Em seguida, o animal se distancia e olha para a câmera de celular supostamente que estaria filmando a cena. Um deste sábado (7) tem esta legenda: "Mulher cai em jaula de leões e gera pânico em zoológico na Índia". As publicações omitem que o registro foi criado com inteligência artificial (IA) — leia mais abaixo. Na seção de comentários, usuários afirmaram que o registro era um "milagre" e "livramento de Deus", enquanto poucos questionaram se o conteúdo era sintético. ⚠️ Por que a publicação é falsa? O Fato ou Fake submeteu submeteu o vídeo a duas plataformas de detecção de IA, e ambas indicaram uso desse recurso: Hive Moderation – 99,9% de probabilidade de o conteúdo ser sintético. Sightengine – 75% de probabilidade de o conteúdo ser sintético. Apontou ainda grandes chances de as imagens terem sido feitas com o Sora, modelo da OpenAI (dona do ChatGPT) para criação de vídeos por IA a partir de textos simples. Para encontrar a origem do vídeo, o Fato ou Fake usou a ferramenta InVID e fragmentou o material em vários frames (imagens estáticas). Depois, selecionou uma dessas "fotos" e fez uma busca reversa no Google Lens. Essa pesquisa serve para verificar a origem do conteúdo. O resultado levou para a publicação original do vídeo falso, compartilhada no Instagram de 1° de janeiro deste ano. O autor do material se descreve como "diretor de cinema de Bollywood" e criador de conteúdo com IA. Na legenda, ele escreveu "Momento de terror em um zoológico indiano🧨" e indicou apenas nas hashtags que o conteúdo havia sido produzido com o Sora 2. O Fato ou Fake não encontrou qualquer veículo de imprensa local que noticiou o suposto acidente no zoológico. Vídeos sintéticos de animais têm viralizado nas redes sociais. O Fato ou Fake já desmentiu as gravações de uma leoa cheirando um homem dormindo em rua e de um cachorro salvando criança de atropelamento por trem, casos que supostamente também teriam ocorrido na Índia. É #FATO: Gatas são nomeadas funcionárias oficiais de estação de trem no Japão É #FAKE que vídeo mostre leão cheirando mulher que teria caído em jaula na Índia; cena foi criada com IA Reprodução Veja também Vídeo de capivara pegando "carona" em cima de tatu foi feito com IA É #FAKE vídeo de capivara pegando 'carona' em cima de tatu VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Discord vai verificar idade e limitar acesso de menores na plataforma


Discord - representação Discord é uma plataforma de mensagens popular entre os jovens e jogadores de videogame — Foto: Reprodução internet O Discord anunciou nesta segunda-feira (9) que todos os usuários poderão passar por um processo de verificação de idade para "alterar determinadas configurações ou acessar conteúdos sensíveis". As mudanças começam a valer em março e serão aplicadas globalmente, tanto para novos usuários quanto para contas já existentes. Segundo a empresa, a análise da idade será feita por meio de reconhecimento facial ou do envio de um documento de identificação. O Discord afirmou ainda que, no futuro, pretende adotar outras formas de checagem, mas não detalhou quais serão. A plataforma também informou que usará um modelo para ajudar a identificar se uma conta pertence a um adulto, com o objetivo de evitar que o usuário precise passar repetidamente pelo processo de verificação. Veja os vídeos que estão em alta no g1 "Em algumas situações, poderá ser solicitado o uso de mais de um método, caso sejam necessárias informações adicionais para definir a faixa etária", afirmou a empresa. Após a verificação, o Discord passará a oferecer experiências adequadas à idade do usuário. Por exemplo, apenas contas com idade confirmada como adulta poderão acessar determinados canais e servidores. Além disso, mensagens de pessoas que o usuário pode não conhecer serão direcionadas para uma caixa separada, e apenas um adulto pode alterar essa configuração. A plataforma também enviará avisos quando houver solicitações de amizade de pessoas que o usuário talvez não conheça. Mais plataformas adotam medidas Crianças estudantes com celular em sala de aula de escola RDNE Stock project/Pexels O Discord não é a única empresa a adotar medidas para proteger menores de idade em suas plataformas. Há uma pressão global para que redes sociais e serviços digitais garantam ambientes mais seguros para crianças e adolescentes. Neste ano, o YouTube anunciou que vai adotar inteligência artificial para identificar se um usuário da plataforma tem menos de 18 anos. Segundo a empresa, a iniciativa faz parte das medidas de segurança voltadas a adolescentes. Em 2025, o Roblox anunciou a expansão do sistema de verificação de idade para todos os usuários da plataforma de jogos e informou que passaria a limitar a comunicação entre adultos e adolescentes. A verificação combina três mecanismos: tecnologia de estimativa de idade, com uso de leitura facial, verificação por documento de identidade e consentimento dos pais. No início deste ano, o TikTok anunciou uma nova tecnologia de detecção de idade em toda a Europa. O sistema analisa informações de perfil, vídeos publicados e sinais comportamentais para estimar se uma conta pode pertencer a um menor de idade. Na mesma linha, o ChatGPT passou a adotar um sistema de verificação de idade que promete ampliar a proteção de crianças e adolescentes. A mudança será implementada globalmente. LEIA TAMBÉM: Google aceita pagar US$ 68 milhões em processo por espionagem de seu assistente virtual Vazamento expõe dados internos da Nike, diz site Nada de arroz: saiba o que fazer se o celular cair na água Entenda nova regra que exige confirmação de idade de usuários por sites e aplicativos Vídeos de alimentos e objetos falantes criados com IA inundam as redes Meninas expõem rotina de casadas no TikTok

domingo, 8 de fevereiro de 2026

'AI Slop': o conteúdo 'tosco' gerado por inteligência artificial que tomou conta das redes sociais - e a reação contrária da internet


Parte do AI slop nas redes sociais é muito estranha, afirma Théodore Reprodução/Redes sociais via BBC Théodore se lembra do conteúdo "desleixado" de inteligência artificial (AI slop, na expressão em inglês) que o tirou do sério. A imagem mostrava dois meninos sul-asiáticos magérrimos e pobres. Por alguma razão, apesar de seus traços infantis, elas tinham barbas volumosas. Um deles não tinha mãos e tinha apenas um pé. O outro segurava um cartaz dizendo que era seu aniversário e pedindo curtidas (likes). Inexplicavelmente, os dois estavam sentados no meio de uma rua movimentada, sob chuva intensa, com um bolo de aniversário. A imagem reunia diversos indícios de que havia sido criada usando inteligência artificial (IA). Ainda assim, no Facebook, viralizou, com quase 1 milhão de curtidas e emojis de coração. Veja os vídeos em alta no g1 Veja os vídeos que estão em alta no g1 Algo 'estalou' em Théodore. "Aquilo me deixou perplexo. As imagens absurdas feitas por IA estavam por toda parte no Facebook e recebiam [um] monte de engajamento, sem qualquer escrutínio; era insano para mim", disse o estudante de 20 anos, de Paris (França). Théodore criou então uma conta na rede social X, antes conhecida como Twitter, chamada "Insane AI Slop" ("Desleixo Insano de IA", em tradução livre), e passou a expor e a ironizar publicações que encontrava e que enganava os usuários. Outros perceberam, e sua caixa de entrada logo ficou lotada de mensagens com contribuições repletas de exemplos do chamado AI slop. Théodore (à esquerda) iniciou uma campanha online para ironizar o AI slop nas redes sociais, incluindo uma imagem falsa (à direita) que recebeu quase 1 milhão de curtidas via BBC Com o tempo, temas recorrentes ficaram evidentes: religião, militares ou crianças pobres fazendo ações comoventes. "Crianças do terceiro mundo fazendo coisas impressionantes sempre fazem sucesso, assim como um menino pobre na África criando uma estátua insana a partir de lixo. Acho que as pessoas consideram isso edificante, então os criadores pensam: 'Ótimo, vamos inventar mais coisas desse tipo'", disse Théodore. A conta de Théodore logo ultrapassou 133 mil seguidores. A enxurrada de AI slop, que ele define como vídeos e imagens falsos, pouco convincentes e produzidos rapidamente, parece impossível de ser contida atualmente. Empresas de tecnologia abraçaram a inteligência artificial. Algumas afirmam estar começando a coibir certas formas desse tipo de conteúdo, embora muitos feeds de redes sociais ainda parecem dominados por esse tipo de conteúdo. Em apenas alguns anos, a experiência de usar as redes sociais mudou de forma profunda. Como isso aconteceu e que efeito terá sobre a sociedade? E, talvez a questão mais urgente de todas: o quanto os bilhões de usuários de redes sociais realmente se importam? A 'terceira fase' das redes sociais Em outubro, durante mais uma animada teleconferência de resultados, o CEO da Meta, Mark Zuckerberg, declarou com entusiasmo que as redes sociais haviam entrado em uma terceira fase, agora centrada na inteligência artificial. "A primeira foi quando todo o conteúdo vinha de amigos, familiares e contas que você seguia diretamente", disse. "A segunda foi quando adicionamos o conteúdo dos criadores. Agora, à medida que a IA torna mais fácil criar e remixar o conteúdo, vamos acrescentar ainda mais um grande conjunto de conteúdos", disse ele aos acionistas. A Meta, que controla as redes sociais Facebook, Instagram e Threads, não apenas permite que usuários publiquem conteúdo gerado por IA, como também lançou produtos para possibilitar a criação de ainda mais desse material. Geradores de imagem e vídeo e filtros cada vez mais poderosos passaram a ser oferecidos de forma ampla nas plataformas. Quando a BBC procurou a empresa para comentar, a Meta direcionou para a teleconferência de resultados de janeiro. Nela, o bilionário afirmou que a empresa estava apostando ainda mais em IA e não mencionou qualquer iniciativa para coibir o AI slop. "Em breve, veremos uma explosão de novos formatos de mídia, mais imersivos e interativos, e possíveis graças aos avanços da IA", disse Zuckerberg. O CEO do YouTube, Neal Mohan, escreveu em seu blog de perspectivas para 2026 que, apenas em dezembro, mais de 1 milhão de canais do YouTube usaram as ferramentas de IA da plataforma para criar conteúdo. "Assim como o sintetizador, o Photoshop e o CGI revolucionaram o som e o visual, a IA será uma dádiva para os criadores que estiverem prontos para adotá-la", escreveu. Mohan também reconheceu que há preocupações crescentes com "conteúdo de baixa qualidade, também conhecido como AI slop". Segundo ele, sua equipe trabalha em formas de aprimorar os sistemas para identificar e remover "conteúdo repetitivo e de baixa qualidade". O CEO da Meta, Mark Zuckerberg, disse aos investidores que a IA "torna mais fácil a criação e a remixagem de conteúdo". Reuters via BBC Mas ele também descartou fazer qualquer julgamento sobre o que deveria ou não ter espaço para prosperar. Ele ressaltou que conteúdos antes de nicho, como ASMR (sons relaxantes projetados para fazer o "couro cabeludo formigar") e jogos de videogame ao vivo, agora são populares. De acordo com pesquisa da empresa de inteligência artificial Kapwing, 20% do conteúdo mostrado a uma conta recém-criada no YouTube é agora "vídeo de IA de baixa qualidade". O vídeo de formato curto, em particular, foi um ponto crítico: a Kapwing descobriu que estava presente em 104 dos primeiros 500 clipes de YouTube Shorts exibidos para uma conta nova criada pelos pesquisadores. A economia dos criadores parece ser um grande impulsionador, já que pessoas e canais podem ganhar dinheiro com engajamento e visualizações. A julgar pelas visualizações de alguns canais e vídeos de IA, as pessoas de fato se interessam pelo conteúdo, ou, pelo menos, os algoritmos que ditam o que vemos se interessam. Segundo a Kapwing, o canal de AI slop com mais visualizações é o indiano Bandar Apna Dost, que acumula 2,07 bilhões de visualizações, rendendo aos criadores um ganho anual estimado de 4 milhões de dólares (cerca de R$ 21,05 milhões). Mas já existe uma espécie de reação contrária em curso. Sob muitos vídeos virais de IA, é agora comum ver uma enxurrada de comentários furiosos condenando o conteúdo. Monstros gigantes e parasitas mortais no abdômen Théodore, o estudante de Paris mencionado no início deste texto, ajudou a impulsionar essa onda de críticas. Usando sua influência recém-adquirida no X, ele reclamou a moderadores do YouTube sobre a enxurrada de desenhos animados estranhos gerados por IA que acumulavam um grande número de visualizações. Na avaliação dele, eram perturbadores e prejudiciais e, em alguns casos, pareciam ser direcionados a crianças. Os vídeos tinham títulos como Mum cat saves kitten from deadly belly parasites (Gata mãe salva filhote de parasitas intestinais mortais, em tradução livre) e exibiam cenas explícitas. Outro clipe curto (conhecido como Short) mostrava uma mulher de camisola que ingeria um parasita e depois se transformava em um monstro gigante e furioso, que acabava sendo curada por Jesus. Théodore considerou perturbadores alguns dos desenhos animados gerados por IA que encontrou no YouTube. A plataforma afirmou ter removido os vídeos denunciados por violarem suas diretrizes da comunidade. Reprodução/Perfil 'Sprung Nexus' no Youtube via BBC O YouTube removeu os canais, informando à reportagem que tomou a medida porque eles violavam suas diretrizes da comunidade. A empresa afirmou estar "focada em conectar nossos usuários a conteúdo de alta qualidade, independentemente de como ele foi feito", e disse trabalhar para "reduzir a disseminação de conteúdo de IA de baixa qualidade". Mas essa experiência, somada a muitas outras semelhantes, acabou desgastando Théodore. Até sites de estilo de vida aparentemente acolhedores, como o Pinterest, um fórum de receitas e ideias de decoração, foram afetados. Os usuários ficaram tão frustrados com a enxurrada de AI slop que a empresa introduziu um novo sistema de exclusão desse tipo de conteúdo. A medida, porém, depende de que os próprios usuários admitam que as imagens de casas perfeitas que publicam foram feitas por IA. Fúria na seção de comentários No meu feed, e estou ciente de que o feed de cada pessoa é diferente, inclusive os comentários, a reação adversa ao AI slop se tornou incessante. Seja no TikTok, no Threads, no Instagram ou no X, parece haver um movimento de pressão popular contra esse tipo de conteúdo. Em alguns casos, o número de curtidas em comentários críticos ao AI slop supera em muito o do post original. Foi o que ocorreu com um vídeo recente que mostrava um praticante de snowboard resgatando um lobo de um urso. O vídeo teve 932 curtidas, contra 2.400 curtidas em um comentário que dizia: "Levante a mão quem está cansado dessa m**da de IA". Mas, claro, tudo isso alimenta o monstro. Para as plataformas de redes sociais, todo engajamento é bom engajamento, manter as pessoas rolando a tela é o essencial. Então, afinal, importa se o vídeo incrível, comovente ou chocante que aparece no seu feed é real ou não? O efeito do 'cérebro podre' Emily Thorson, professora associada da Syracuse University (EUA), especializada em política, desinformação e percepções equivocadas, afirma que a questão depende do que as pessoas fazem na plataforma de rede social. "Se uma pessoa está em uma plataforma de vídeos curtos apenas para entretenimento, então o critério para avaliar se algo vale a pena é simplesmente 'é divertido?'", disse. "Mas, se alguém usa a plataforma para aprender sobre um tema ou para se conectar com membros de uma comunidade, pode perceber o conteúdo gerado por IA como mais problemático." A forma como o AI slop é apresentado também influencia a reação do público. Quando algo é claramente feito como piada, tende a ser recebido dessa forma. Mas, quando o AI slop é criado especificamente para enganar, pode provocar indignação das pessoas. Vi um vídeo recentemente gerado por IA que é emblemático: um registro extremamente realista, no estilo de documentário de história natural, de uma impressionante caçada de leopardo. Nos comentários, alguns espectadores foram enganados; outros ficaram em dúvida. "De que documentário isso é?", perguntou um comentarista. "Por favor, é a única maneira de [provar] que não é IA." Uma reação contrária ao AI slop vêm crescendo, com muitos comentários nos vídeos e fotos apontando quando algo é gerado por IA. Redes sociais via BBC Alessandro Galeazzi, da Universidade de Padova (Itália), pesquisa o comportamento nas redes sociais e as chamadas câmaras de eco (grupos de usuários em bolhas informacionais). Segundo Galeazzi, verificar se um vídeo foi ou não gerado por IA exige esforço mental e, no longo prazo, teme que as pessoas simplesmente deixem de checar. "Minha impressão é que a enxurrada de conteúdos sem sentido e de baixa qualidade gerados com IA pode reduzir ainda mais a capacidade de atenção das pessoas", afirmou. Galeazzi distingue o conteúdo criado com a intenção de enganar daquele AI slop mais cômico e obviamente falso, como peixes usando sapatos ou gorilas levantando peso na academia. Mas mesmo esse material mais fantasioso pode ter efeitos nocivos. Ele aponta o risco do brain rot (apodrecimento cerebral, em tradução livre), conceito que associa a exposição constante às redes sociais ao prejuízo das capacidades intelectuais. "Eu diria que o AI slop intensifica o efeito do brain rot, fazendo com que as pessoas consumam rapidamente conteúdos que sabem não apenas ser improváveis de reais, mas provavelmente sem significado ou interesse", disse. Cortes nas equipes de moderação Além do AI slop, parte do conteúdo produzido por IA pode ter implicações bem piores. Empresas controladas por Elon Musk, incluindo a xAI e a rede social X, foram recentemente obrigadas a alterar suas regras depois que o chatbot Grok estava sendo usado para despir digitalmente mulheres e crianças na rede X. Após o ataque dos Estados Unidos à Venezuela, vídeos falsos se espalharam mostrando pessoas chorando nas ruas e agradecendo aos EUA. Conteúdos assim podem moldar a opinião pública e dar a impressão de que a ação dos EUA foi mais popular do que de fato pode ter sido. Analistas dizem que isso é especialmente preocupante, já que tantas pessoas usam redes sociais como sua única fonte de notícias. Manny Ahmed, CEO da OpenOrigins, uma empresa que busca distinguir entre imagens geradas por IA e imagens reais, afirma que é necessário um novo método para que quem posta conteúdo autêntico possa provar que seus vídeos e fotos são genuínos. "Já chegamos ao ponto em que não é possível afirmar com confiança o que é real apenas pela inspeção", afirmou. "Em vez de tentar detectar o que é falso, precisamos de uma infraestrutura que permita que conteúdos autênticos provem publicamente sua origem." Pode parecer que essa seja uma tarefa que as empresas de redes sociais poderiam assumir. Mas muitas delas, incluindo a Meta e a X, reduziram suas equipes de moderação e adotaram uma abordagem mais coletiva. Hoje, tendem a confiar nos próprios usuários para rotular conteúdos como falsos ou enganosos. Redes sociais sem 'slop'? Se as grandes empresas de tecnologia parecem, em linhas gerais, satisfeitas em deixar o AI slop circular livremente, seria possível que uma nova rede social surgisse prometendo uma alternativa livre desse tipo de conteúdo e, com o tempo, desafiasse as plataformas dominantes? Isso parece improvável, porque a detecção de conteúdo gerado por IA está se tornando cada vez mais difícil. As máquinas já não conseguem identificar com precisão se um vídeo ou uma imagem são definitivamente falsos, e teriam ainda mais dificuldade para fazer o julgamento subjetivo sobre se determinado conteúdo pode ou não ser classificado como slop. Ainda assim, se uma nova rede social surgir e as pessoas "votarem com os pés", ou, mais precisamente, com os olhos e os polegares, isso pode provocar alguma mudança. Me lembro do surgimento da rede social concorrente BeReal, um aplicativo francês que ganhou popularidade durante a pandemia ao incentivar os usuários a mostrarem versões autênticas de si mesmos por meio de selfies sem filtros, feitas em horários aleatórios. O BeReal ainda não alcançou o mesmo patamar de gigantes como Facebook e Snapchat, e provavelmente nunca alcançará. Mas conseguiu chamar a atenção das outras plataformas, que, em alguns casos, copiaram a ideia. Talvez isso volte a acontecer se surgir um concorrente com uma proposta explícita contra o AI slop. Quanto a Théodore, ele sente que a batalha está perdida e que o AI slop veio para ficar. Apesar de ainda receber contribuições em sua caixa de mensagens, enviadas por seus atuais 133 mil seguidores, ele já não publica com a mesma frequência e, em grande medida, se resignou ao novo normal da vida online. "Ao contrário de muitos dos meus seguidores, não sou dogmaticamente contra a IA", disse. "Sou contra a poluição online de AI slop, feita para entretenimento rápido e para gerar visualizações."

Pingtok: quando jovens expõem o uso de drogas no TikTok


Ícone do aplicativo de compartilhamento de vídeos TikTok. AP/Matt Slocum/Arquivo Pupilas dilatadas, sob o efeito de drogas em frente à câmera e, geralmente, sozinhos. Na rede social TikTok, cada vez mais jovens expõem publicamente seus momentos de euforia induzidos por entorpecentes. Os vídeos alcançam milhões de visualizações — frequentemente sob a hashtag #Pingtok. Essa tendência representa uma nova visibilidade do uso de drogas nas redes sociais. O que antes acontecia em segredo agora é filmado, estetizado e compartilhado publicamente. As consequências podem ser fatais e, muitas vezes, invisíveis para os pais. "Desde que comecei a conscientizar sobre vícios no TikTok, tenho recebido muitas mensagens. Isso é assustador porque geralmente são de menores de idade", disse a influenciadora Sarah em entrevista à DW. Ela própria se tornou viciada em drogas aos 15 anos. Hoje, aos 26 anos, ela educa as pessoas no TikTok sobre seu vício e sua abstinência. Muitos dos seus seguidores que foram levados a usar drogas através do TikTok são ainda mais jovens. "Eles não têm com quem conversar sobre isso, e alguns deles me escrevem coisas muito intensas sobre suas experiências e traumas", afirmou Sarah. Como chegamos a esse ponto? União Europeia acusa TikTok de 'design viciante' e cobra mudanças para proteger crianças e adolescentes Veja o que países estão fazendo para regular o acesso de crianças às redes sociais Veja os vídeos que estão em alta no g1 Um clique para as drogas O TikTok revela como se tornou fácil para os jovens entrarem em contato com conteúdo relacionado a drogas. Basta uma busca rápida pela hashtag #Pingtok e vídeos de adolescentes sob efeito de drogas aparecem um após o outro. Quanto mais você rola a tela, mais vídeos o algoritmo exibe. Quando questionado pela DW sobre por que o TikTok não adota medidas mais enérgicas contra a distribuição desse tipo de conteúdo, um porta-voz da plataforma disse que a rede age rapidamente para remover as postagens. "A segurança e o bem-estar da nossa comunidade são nossa principal prioridade. Proibimos a exibição, a publicidade ou a venda de drogas ou outras substâncias e as removemos da plataforma – mais de 99% do conteúdo que viola essas regras é removido antes mesmo de ser denunciado." O que está por trás dessa tendência O Pingtok, no entanto, mostra como é fácil burlar essas regras. Os usuários se comunicam por meio de códigos. Eles usam emojis, sons e novos termos para burlar a moderação da plataforma. Em vez de mostrar o uso visível de drogas, por exemplo, exibem apenas suas pupilas dilatadas. Essa, inclusive, é a origem do termo Pingtok. "Ping" é uma gíria utilizada para se referir ao consumo da droga MDMA. Essa chamada linguagem algorítmica, também conhecida como algospeak, dificulta a identificação clara do conteúdo e sua remoção rápida. Mesmo quando os termos são bloqueados, os usuários se adaptam rapidamente: a hashtag #Pingtok foi bloqueada pelo TikTok, mas ainda circulam variações como #Pingtokk ou #Pintok. Tráfico de drogas no TikTok Particularmente problemático é o fato de o TikTok estar se tornando um mercado informal. "Você nem precisa mais sair de casa. Pode conseguir tudo o que quiser, direto do seu quarto", disse a influenciadora Sarah. Uma olhada nas seções de comentários dos vídeos revela o que ela quer dizer. Consultas de busca como "quem está vendendo?" ou "preciso de alguma coisa em Berlim" geram respostas diretas de traficantes. Eles sinalizam sua disponibilidade para vender por meio de símbolos como um plugue de carregamento e, em seguida, convidam os usuários para grupos de bate-papo no aplicativo de mensagens Telegram. Os jovens sempre experimentaram drogas, mas tornar isso público de maneira voluntária é algo que está mudando tudo, diz Sarah. No passado, as pessoas fechavam as cortinas e usavam drogas em segredo com outras pessoas. Hoje, elas ligam suas câmeras e usam drogas sozinhas – por cliques no TikTok. Dados atuais mostram o quão perigoso esse uso descontrolado pode ser. De acordo com o Departamento Federal de Polícia Criminal, as mortes relacionadas a drogas na Alemanha quase dobraram em dez anos. Entre os menores de 30 anos, o número de mortes aumentou 14% em 2024. Países querem proibir redes para menores Estudos dos EUA também mostram que mais de dois terços das overdoses fatais acontecem em casa, muitas vezes porque ninguém pode intervir. Uma ligação direta com tendências do TikTok, como o Pingtok, não foi comprovada. No entanto, especialistas alertam que o isolamento e a exposição a conteúdo relacionado a drogas nas redes sociais podem tornar o uso de drogas mais perigoso. Internacionalmente, aumenta a pressão política sobre as redes sociais. Alguns governos querem proteger melhor os jovens de conteúdos prejudiciais. Em dezembro, a Austrália se tornou o primeiro país a introduzir uma proibição de redes sociais para menores de 16 anos. O Reino Unido, a Dinamarca e, mais recentemente, a França planejam restrições semelhantes. A União Europeia (UE) avalia se as plataformas estão cumprindo adequadamente suas obrigações em relação à proteção de menores e está discutindo restrições de acesso. Mas as proibições são realmente a solução? 'Não sabia o quanto minha filha era viciada': brasileiros contam como foi a proibição de redes sociais na Austrália 'Vejo você em 4 anos': adolescentes na Austrália se despedem das redes antes de proibição Redes sociais também podem ser redes de apoio "Há um aspecto que muitas vezes é negligenciado no debate sobre o uso de drogas e as redes sociais", disse a pesquisadora Layla Bouzoubaa em entrevista à DW. Ela destacou que existem pessoas que usam essas plataformas para encontrar apoio, e que "isso não tem nada a ver com glorificação." Bouzoubaa e sua equipe analisaram centenas de vídeos do TikTok sobre o tema do uso de substâncias. Eles descobriram que mais da metade do conteúdo trata de prevenção ao uso de drogas, superação do vício ou busca por ajuda. Uma remoção completa de todo o conteúdo ou uma proibição da plataforma pode ser perigosa para esses grupos, alertou Bouzoubaa. "Não queremos cortar esse apoio vital para as pessoas enquanto moderamos o conteúdo de forma extremamente rigorosa. Se as plataformas querem mudar algo, precisam envolver as comunidades afetadas." Prevenção também está disponível online Essa também é a abordagem de Sarah, que não usa o TikTok para exaltar as drogas, mas para alertar sobre as consequências reais do vício. "Os agentes de combate às drogas e os assistentes sociais devem estar preparados para o fato de que a maioria das coisas acontece online hoje em dia", disse ela. "É bom que eles vão às ruas ou às escolas. Mas também precisam ficar de olho no ambiente online, principalmente porque muitos usuários são menores de idade." Veja mais: Brasil também terá regras para adolescentes nas redes: veja quais Grok: ferramenta gratuita da rede social X é usada para criar imagens íntimas falsas

Os 'espelhos com IA' que estão mudando como cegos se veem

O aplicativo — com seus olhos virtuais — me ajuda a saber se minha pele está com a aparência que eu desejo ou se há algo no meu visu...