domingo, 8 de fevereiro de 2026

'AI Slop': o conteúdo 'tosco' gerado por inteligência artificial que tomou conta das redes sociais - e a reação contrária da internet


Parte do AI slop nas redes sociais é muito estranha, afirma Théodore Reprodução/Redes sociais via BBC Théodore se lembra do conteúdo "desleixado" de inteligência artificial (AI slop, na expressão em inglês) que o tirou do sério. A imagem mostrava dois meninos sul-asiáticos magérrimos e pobres. Por alguma razão, apesar de seus traços infantis, elas tinham barbas volumosas. Um deles não tinha mãos e tinha apenas um pé. O outro segurava um cartaz dizendo que era seu aniversário e pedindo curtidas (likes). Inexplicavelmente, os dois estavam sentados no meio de uma rua movimentada, sob chuva intensa, com um bolo de aniversário. A imagem reunia diversos indícios de que havia sido criada usando inteligência artificial (IA). Ainda assim, no Facebook, viralizou, com quase 1 milhão de curtidas e emojis de coração. Veja os vídeos em alta no g1 Veja os vídeos que estão em alta no g1 Algo 'estalou' em Théodore. "Aquilo me deixou perplexo. As imagens absurdas feitas por IA estavam por toda parte no Facebook e recebiam [um] monte de engajamento, sem qualquer escrutínio; era insano para mim", disse o estudante de 20 anos, de Paris (França). Théodore criou então uma conta na rede social X, antes conhecida como Twitter, chamada "Insane AI Slop" ("Desleixo Insano de IA", em tradução livre), e passou a expor e a ironizar publicações que encontrava e que enganava os usuários. Outros perceberam, e sua caixa de entrada logo ficou lotada de mensagens com contribuições repletas de exemplos do chamado AI slop. Théodore (à esquerda) iniciou uma campanha online para ironizar o AI slop nas redes sociais, incluindo uma imagem falsa (à direita) que recebeu quase 1 milhão de curtidas via BBC Com o tempo, temas recorrentes ficaram evidentes: religião, militares ou crianças pobres fazendo ações comoventes. "Crianças do terceiro mundo fazendo coisas impressionantes sempre fazem sucesso, assim como um menino pobre na África criando uma estátua insana a partir de lixo. Acho que as pessoas consideram isso edificante, então os criadores pensam: 'Ótimo, vamos inventar mais coisas desse tipo'", disse Théodore. A conta de Théodore logo ultrapassou 133 mil seguidores. A enxurrada de AI slop, que ele define como vídeos e imagens falsos, pouco convincentes e produzidos rapidamente, parece impossível de ser contida atualmente. Empresas de tecnologia abraçaram a inteligência artificial. Algumas afirmam estar começando a coibir certas formas desse tipo de conteúdo, embora muitos feeds de redes sociais ainda parecem dominados por esse tipo de conteúdo. Em apenas alguns anos, a experiência de usar as redes sociais mudou de forma profunda. Como isso aconteceu e que efeito terá sobre a sociedade? E, talvez a questão mais urgente de todas: o quanto os bilhões de usuários de redes sociais realmente se importam? A 'terceira fase' das redes sociais Em outubro, durante mais uma animada teleconferência de resultados, o CEO da Meta, Mark Zuckerberg, declarou com entusiasmo que as redes sociais haviam entrado em uma terceira fase, agora centrada na inteligência artificial. "A primeira foi quando todo o conteúdo vinha de amigos, familiares e contas que você seguia diretamente", disse. "A segunda foi quando adicionamos o conteúdo dos criadores. Agora, à medida que a IA torna mais fácil criar e remixar o conteúdo, vamos acrescentar ainda mais um grande conjunto de conteúdos", disse ele aos acionistas. A Meta, que controla as redes sociais Facebook, Instagram e Threads, não apenas permite que usuários publiquem conteúdo gerado por IA, como também lançou produtos para possibilitar a criação de ainda mais desse material. Geradores de imagem e vídeo e filtros cada vez mais poderosos passaram a ser oferecidos de forma ampla nas plataformas. Quando a BBC procurou a empresa para comentar, a Meta direcionou para a teleconferência de resultados de janeiro. Nela, o bilionário afirmou que a empresa estava apostando ainda mais em IA e não mencionou qualquer iniciativa para coibir o AI slop. "Em breve, veremos uma explosão de novos formatos de mídia, mais imersivos e interativos, e possíveis graças aos avanços da IA", disse Zuckerberg. O CEO do YouTube, Neal Mohan, escreveu em seu blog de perspectivas para 2026 que, apenas em dezembro, mais de 1 milhão de canais do YouTube usaram as ferramentas de IA da plataforma para criar conteúdo. "Assim como o sintetizador, o Photoshop e o CGI revolucionaram o som e o visual, a IA será uma dádiva para os criadores que estiverem prontos para adotá-la", escreveu. Mohan também reconheceu que há preocupações crescentes com "conteúdo de baixa qualidade, também conhecido como AI slop". Segundo ele, sua equipe trabalha em formas de aprimorar os sistemas para identificar e remover "conteúdo repetitivo e de baixa qualidade". O CEO da Meta, Mark Zuckerberg, disse aos investidores que a IA "torna mais fácil a criação e a remixagem de conteúdo". Reuters via BBC Mas ele também descartou fazer qualquer julgamento sobre o que deveria ou não ter espaço para prosperar. Ele ressaltou que conteúdos antes de nicho, como ASMR (sons relaxantes projetados para fazer o "couro cabeludo formigar") e jogos de videogame ao vivo, agora são populares. De acordo com pesquisa da empresa de inteligência artificial Kapwing, 20% do conteúdo mostrado a uma conta recém-criada no YouTube é agora "vídeo de IA de baixa qualidade". O vídeo de formato curto, em particular, foi um ponto crítico: a Kapwing descobriu que estava presente em 104 dos primeiros 500 clipes de YouTube Shorts exibidos para uma conta nova criada pelos pesquisadores. A economia dos criadores parece ser um grande impulsionador, já que pessoas e canais podem ganhar dinheiro com engajamento e visualizações. A julgar pelas visualizações de alguns canais e vídeos de IA, as pessoas de fato se interessam pelo conteúdo, ou, pelo menos, os algoritmos que ditam o que vemos se interessam. Segundo a Kapwing, o canal de AI slop com mais visualizações é o indiano Bandar Apna Dost, que acumula 2,07 bilhões de visualizações, rendendo aos criadores um ganho anual estimado de 4 milhões de dólares (cerca de R$ 21,05 milhões). Mas já existe uma espécie de reação contrária em curso. Sob muitos vídeos virais de IA, é agora comum ver uma enxurrada de comentários furiosos condenando o conteúdo. Monstros gigantes e parasitas mortais no abdômen Théodore, o estudante de Paris mencionado no início deste texto, ajudou a impulsionar essa onda de críticas. Usando sua influência recém-adquirida no X, ele reclamou a moderadores do YouTube sobre a enxurrada de desenhos animados estranhos gerados por IA que acumulavam um grande número de visualizações. Na avaliação dele, eram perturbadores e prejudiciais e, em alguns casos, pareciam ser direcionados a crianças. Os vídeos tinham títulos como Mum cat saves kitten from deadly belly parasites (Gata mãe salva filhote de parasitas intestinais mortais, em tradução livre) e exibiam cenas explícitas. Outro clipe curto (conhecido como Short) mostrava uma mulher de camisola que ingeria um parasita e depois se transformava em um monstro gigante e furioso, que acabava sendo curada por Jesus. Théodore considerou perturbadores alguns dos desenhos animados gerados por IA que encontrou no YouTube. A plataforma afirmou ter removido os vídeos denunciados por violarem suas diretrizes da comunidade. Reprodução/Perfil 'Sprung Nexus' no Youtube via BBC O YouTube removeu os canais, informando à reportagem que tomou a medida porque eles violavam suas diretrizes da comunidade. A empresa afirmou estar "focada em conectar nossos usuários a conteúdo de alta qualidade, independentemente de como ele foi feito", e disse trabalhar para "reduzir a disseminação de conteúdo de IA de baixa qualidade". Mas essa experiência, somada a muitas outras semelhantes, acabou desgastando Théodore. Até sites de estilo de vida aparentemente acolhedores, como o Pinterest, um fórum de receitas e ideias de decoração, foram afetados. Os usuários ficaram tão frustrados com a enxurrada de AI slop que a empresa introduziu um novo sistema de exclusão desse tipo de conteúdo. A medida, porém, depende de que os próprios usuários admitam que as imagens de casas perfeitas que publicam foram feitas por IA. Fúria na seção de comentários No meu feed, e estou ciente de que o feed de cada pessoa é diferente, inclusive os comentários, a reação adversa ao AI slop se tornou incessante. Seja no TikTok, no Threads, no Instagram ou no X, parece haver um movimento de pressão popular contra esse tipo de conteúdo. Em alguns casos, o número de curtidas em comentários críticos ao AI slop supera em muito o do post original. Foi o que ocorreu com um vídeo recente que mostrava um praticante de snowboard resgatando um lobo de um urso. O vídeo teve 932 curtidas, contra 2.400 curtidas em um comentário que dizia: "Levante a mão quem está cansado dessa m**da de IA". Mas, claro, tudo isso alimenta o monstro. Para as plataformas de redes sociais, todo engajamento é bom engajamento, manter as pessoas rolando a tela é o essencial. Então, afinal, importa se o vídeo incrível, comovente ou chocante que aparece no seu feed é real ou não? O efeito do 'cérebro podre' Emily Thorson, professora associada da Syracuse University (EUA), especializada em política, desinformação e percepções equivocadas, afirma que a questão depende do que as pessoas fazem na plataforma de rede social. "Se uma pessoa está em uma plataforma de vídeos curtos apenas para entretenimento, então o critério para avaliar se algo vale a pena é simplesmente 'é divertido?'", disse. "Mas, se alguém usa a plataforma para aprender sobre um tema ou para se conectar com membros de uma comunidade, pode perceber o conteúdo gerado por IA como mais problemático." A forma como o AI slop é apresentado também influencia a reação do público. Quando algo é claramente feito como piada, tende a ser recebido dessa forma. Mas, quando o AI slop é criado especificamente para enganar, pode provocar indignação das pessoas. Vi um vídeo recentemente gerado por IA que é emblemático: um registro extremamente realista, no estilo de documentário de história natural, de uma impressionante caçada de leopardo. Nos comentários, alguns espectadores foram enganados; outros ficaram em dúvida. "De que documentário isso é?", perguntou um comentarista. "Por favor, é a única maneira de [provar] que não é IA." Uma reação contrária ao AI slop vêm crescendo, com muitos comentários nos vídeos e fotos apontando quando algo é gerado por IA. Redes sociais via BBC Alessandro Galeazzi, da Universidade de Padova (Itália), pesquisa o comportamento nas redes sociais e as chamadas câmaras de eco (grupos de usuários em bolhas informacionais). Segundo Galeazzi, verificar se um vídeo foi ou não gerado por IA exige esforço mental e, no longo prazo, teme que as pessoas simplesmente deixem de checar. "Minha impressão é que a enxurrada de conteúdos sem sentido e de baixa qualidade gerados com IA pode reduzir ainda mais a capacidade de atenção das pessoas", afirmou. Galeazzi distingue o conteúdo criado com a intenção de enganar daquele AI slop mais cômico e obviamente falso, como peixes usando sapatos ou gorilas levantando peso na academia. Mas mesmo esse material mais fantasioso pode ter efeitos nocivos. Ele aponta o risco do brain rot (apodrecimento cerebral, em tradução livre), conceito que associa a exposição constante às redes sociais ao prejuízo das capacidades intelectuais. "Eu diria que o AI slop intensifica o efeito do brain rot, fazendo com que as pessoas consumam rapidamente conteúdos que sabem não apenas ser improváveis de reais, mas provavelmente sem significado ou interesse", disse. Cortes nas equipes de moderação Além do AI slop, parte do conteúdo produzido por IA pode ter implicações bem piores. Empresas controladas por Elon Musk, incluindo a xAI e a rede social X, foram recentemente obrigadas a alterar suas regras depois que o chatbot Grok estava sendo usado para despir digitalmente mulheres e crianças na rede X. Após o ataque dos Estados Unidos à Venezuela, vídeos falsos se espalharam mostrando pessoas chorando nas ruas e agradecendo aos EUA. Conteúdos assim podem moldar a opinião pública e dar a impressão de que a ação dos EUA foi mais popular do que de fato pode ter sido. Analistas dizem que isso é especialmente preocupante, já que tantas pessoas usam redes sociais como sua única fonte de notícias. Manny Ahmed, CEO da OpenOrigins, uma empresa que busca distinguir entre imagens geradas por IA e imagens reais, afirma que é necessário um novo método para que quem posta conteúdo autêntico possa provar que seus vídeos e fotos são genuínos. "Já chegamos ao ponto em que não é possível afirmar com confiança o que é real apenas pela inspeção", afirmou. "Em vez de tentar detectar o que é falso, precisamos de uma infraestrutura que permita que conteúdos autênticos provem publicamente sua origem." Pode parecer que essa seja uma tarefa que as empresas de redes sociais poderiam assumir. Mas muitas delas, incluindo a Meta e a X, reduziram suas equipes de moderação e adotaram uma abordagem mais coletiva. Hoje, tendem a confiar nos próprios usuários para rotular conteúdos como falsos ou enganosos. Redes sociais sem 'slop'? Se as grandes empresas de tecnologia parecem, em linhas gerais, satisfeitas em deixar o AI slop circular livremente, seria possível que uma nova rede social surgisse prometendo uma alternativa livre desse tipo de conteúdo e, com o tempo, desafiasse as plataformas dominantes? Isso parece improvável, porque a detecção de conteúdo gerado por IA está se tornando cada vez mais difícil. As máquinas já não conseguem identificar com precisão se um vídeo ou uma imagem são definitivamente falsos, e teriam ainda mais dificuldade para fazer o julgamento subjetivo sobre se determinado conteúdo pode ou não ser classificado como slop. Ainda assim, se uma nova rede social surgir e as pessoas "votarem com os pés", ou, mais precisamente, com os olhos e os polegares, isso pode provocar alguma mudança. Me lembro do surgimento da rede social concorrente BeReal, um aplicativo francês que ganhou popularidade durante a pandemia ao incentivar os usuários a mostrarem versões autênticas de si mesmos por meio de selfies sem filtros, feitas em horários aleatórios. O BeReal ainda não alcançou o mesmo patamar de gigantes como Facebook e Snapchat, e provavelmente nunca alcançará. Mas conseguiu chamar a atenção das outras plataformas, que, em alguns casos, copiaram a ideia. Talvez isso volte a acontecer se surgir um concorrente com uma proposta explícita contra o AI slop. Quanto a Théodore, ele sente que a batalha está perdida e que o AI slop veio para ficar. Apesar de ainda receber contribuições em sua caixa de mensagens, enviadas por seus atuais 133 mil seguidores, ele já não publica com a mesma frequência e, em grande medida, se resignou ao novo normal da vida online. "Ao contrário de muitos dos meus seguidores, não sou dogmaticamente contra a IA", disse. "Sou contra a poluição online de AI slop, feita para entretenimento rápido e para gerar visualizações."

Pingtok: quando jovens expõem o uso de drogas no TikTok


Ícone do aplicativo de compartilhamento de vídeos TikTok. AP/Matt Slocum/Arquivo Pupilas dilatadas, sob o efeito de drogas em frente à câmera e, geralmente, sozinhos. Na rede social TikTok, cada vez mais jovens expõem publicamente seus momentos de euforia induzidos por entorpecentes. Os vídeos alcançam milhões de visualizações — frequentemente sob a hashtag #Pingtok. Essa tendência representa uma nova visibilidade do uso de drogas nas redes sociais. O que antes acontecia em segredo agora é filmado, estetizado e compartilhado publicamente. As consequências podem ser fatais e, muitas vezes, invisíveis para os pais. "Desde que comecei a conscientizar sobre vícios no TikTok, tenho recebido muitas mensagens. Isso é assustador porque geralmente são de menores de idade", disse a influenciadora Sarah em entrevista à DW. Ela própria se tornou viciada em drogas aos 15 anos. Hoje, aos 26 anos, ela educa as pessoas no TikTok sobre seu vício e sua abstinência. Muitos dos seus seguidores que foram levados a usar drogas através do TikTok são ainda mais jovens. "Eles não têm com quem conversar sobre isso, e alguns deles me escrevem coisas muito intensas sobre suas experiências e traumas", afirmou Sarah. Como chegamos a esse ponto? União Europeia acusa TikTok de 'design viciante' e cobra mudanças para proteger crianças e adolescentes Veja o que países estão fazendo para regular o acesso de crianças às redes sociais Veja os vídeos que estão em alta no g1 Um clique para as drogas O TikTok revela como se tornou fácil para os jovens entrarem em contato com conteúdo relacionado a drogas. Basta uma busca rápida pela hashtag #Pingtok e vídeos de adolescentes sob efeito de drogas aparecem um após o outro. Quanto mais você rola a tela, mais vídeos o algoritmo exibe. Quando questionado pela DW sobre por que o TikTok não adota medidas mais enérgicas contra a distribuição desse tipo de conteúdo, um porta-voz da plataforma disse que a rede age rapidamente para remover as postagens. "A segurança e o bem-estar da nossa comunidade são nossa principal prioridade. Proibimos a exibição, a publicidade ou a venda de drogas ou outras substâncias e as removemos da plataforma – mais de 99% do conteúdo que viola essas regras é removido antes mesmo de ser denunciado." O que está por trás dessa tendência O Pingtok, no entanto, mostra como é fácil burlar essas regras. Os usuários se comunicam por meio de códigos. Eles usam emojis, sons e novos termos para burlar a moderação da plataforma. Em vez de mostrar o uso visível de drogas, por exemplo, exibem apenas suas pupilas dilatadas. Essa, inclusive, é a origem do termo Pingtok. "Ping" é uma gíria utilizada para se referir ao consumo da droga MDMA. Essa chamada linguagem algorítmica, também conhecida como algospeak, dificulta a identificação clara do conteúdo e sua remoção rápida. Mesmo quando os termos são bloqueados, os usuários se adaptam rapidamente: a hashtag #Pingtok foi bloqueada pelo TikTok, mas ainda circulam variações como #Pingtokk ou #Pintok. Tráfico de drogas no TikTok Particularmente problemático é o fato de o TikTok estar se tornando um mercado informal. "Você nem precisa mais sair de casa. Pode conseguir tudo o que quiser, direto do seu quarto", disse a influenciadora Sarah. Uma olhada nas seções de comentários dos vídeos revela o que ela quer dizer. Consultas de busca como "quem está vendendo?" ou "preciso de alguma coisa em Berlim" geram respostas diretas de traficantes. Eles sinalizam sua disponibilidade para vender por meio de símbolos como um plugue de carregamento e, em seguida, convidam os usuários para grupos de bate-papo no aplicativo de mensagens Telegram. Os jovens sempre experimentaram drogas, mas tornar isso público de maneira voluntária é algo que está mudando tudo, diz Sarah. No passado, as pessoas fechavam as cortinas e usavam drogas em segredo com outras pessoas. Hoje, elas ligam suas câmeras e usam drogas sozinhas – por cliques no TikTok. Dados atuais mostram o quão perigoso esse uso descontrolado pode ser. De acordo com o Departamento Federal de Polícia Criminal, as mortes relacionadas a drogas na Alemanha quase dobraram em dez anos. Entre os menores de 30 anos, o número de mortes aumentou 14% em 2024. Países querem proibir redes para menores Estudos dos EUA também mostram que mais de dois terços das overdoses fatais acontecem em casa, muitas vezes porque ninguém pode intervir. Uma ligação direta com tendências do TikTok, como o Pingtok, não foi comprovada. No entanto, especialistas alertam que o isolamento e a exposição a conteúdo relacionado a drogas nas redes sociais podem tornar o uso de drogas mais perigoso. Internacionalmente, aumenta a pressão política sobre as redes sociais. Alguns governos querem proteger melhor os jovens de conteúdos prejudiciais. Em dezembro, a Austrália se tornou o primeiro país a introduzir uma proibição de redes sociais para menores de 16 anos. O Reino Unido, a Dinamarca e, mais recentemente, a França planejam restrições semelhantes. A União Europeia (UE) avalia se as plataformas estão cumprindo adequadamente suas obrigações em relação à proteção de menores e está discutindo restrições de acesso. Mas as proibições são realmente a solução? 'Não sabia o quanto minha filha era viciada': brasileiros contam como foi a proibição de redes sociais na Austrália 'Vejo você em 4 anos': adolescentes na Austrália se despedem das redes antes de proibição Redes sociais também podem ser redes de apoio "Há um aspecto que muitas vezes é negligenciado no debate sobre o uso de drogas e as redes sociais", disse a pesquisadora Layla Bouzoubaa em entrevista à DW. Ela destacou que existem pessoas que usam essas plataformas para encontrar apoio, e que "isso não tem nada a ver com glorificação." Bouzoubaa e sua equipe analisaram centenas de vídeos do TikTok sobre o tema do uso de substâncias. Eles descobriram que mais da metade do conteúdo trata de prevenção ao uso de drogas, superação do vício ou busca por ajuda. Uma remoção completa de todo o conteúdo ou uma proibição da plataforma pode ser perigosa para esses grupos, alertou Bouzoubaa. "Não queremos cortar esse apoio vital para as pessoas enquanto moderamos o conteúdo de forma extremamente rigorosa. Se as plataformas querem mudar algo, precisam envolver as comunidades afetadas." Prevenção também está disponível online Essa também é a abordagem de Sarah, que não usa o TikTok para exaltar as drogas, mas para alertar sobre as consequências reais do vício. "Os agentes de combate às drogas e os assistentes sociais devem estar preparados para o fato de que a maioria das coisas acontece online hoje em dia", disse ela. "É bom que eles vão às ruas ou às escolas. Mas também precisam ficar de olho no ambiente online, principalmente porque muitos usuários são menores de idade." Veja mais: Brasil também terá regras para adolescentes nas redes: veja quais Grok: ferramenta gratuita da rede social X é usada para criar imagens íntimas falsas

sábado, 7 de fevereiro de 2026

A ofensiva da União Europeia para enquadrar as big techs americanas


Bandeiras da UE na sede em Bruxelas, Bélgica Yves Herman/Reuters A investigação contra a rede social TikTok anunciada pela União Europeia nesta sexta-feira (06/02) por suspeita de "viciar" crianças e adolescentes é a mais recente de uma série de embates que autoridades do bloco têm protagonizado com gigantes americanas do ramo de tecnologia nos últimos anos. As agências reguladoras europeias apuram desde suspeitas de práticas anticompetitivas e questões éticas associadas ao uso de inteligência artificial (IA) até violações das regras sobre conteúdo online para as redes sociais. Além da ação contra o TikTok, recentemente a Comissão Europeia mirou também o chatbot de IA Grok, do bilionário Elon Musk, por suspeita de disseminação de conteúdo ilegal, como a geração de imagens falsas sexualizadas. A rede social X, também pertencente a Musk, foi acusada de violar diversos artigos da Lei de Serviços Digitais (DSA, na sigla em inglês) da União Europeia (UE). Veja os vídeos que estão em alta no g1 'Sentimento horrível. Me sinto suja', diz brasileira vítima de foto editada de biquíni pelo Grok, IA de Musk Veja o que países estão fazendo para regular o acesso de crianças às redes sociais Veja, abaixo, quais grandes empresas estão sob a mira das autoridades europeias, e por quê. Alphabet Google REUTERS/Dado Ruvic A Comissão Europeia anunciou em dezembro a abertura de uma investigação antitruste envolvendo o Google, da Alphabet. O objetivo é apurar se a companhia estaria violando as regras de concorrência da UE ao usar material online de publicadores de conteúdo e da plataforma de vídeos YouTube para fins de inteligência artificial, o que colocaria outros desenvolvedores de IA em "desvantagem". A Comissão aplicou ao Google uma multa antitruste de 2,95 bilhões de euros (R$ 15,4 bilhões) em 5 de setembro por práticas anticompetitivas em seu negócio de tecnologia de publicidade. Em setembro de 2024, o Google venceu um recurso contra uma multa antitruste de 1,49 bilhão de euros imposta por prejudicar concorrentes em publicidade de mecanismos de busca online. Uma semana antes, o Google pedeu uma batalha contra uma multa de 2,42 bilhões de euros imposta há alguns anos pelos reguladores antitruste da UE, por usar seu próprio serviço de comparação de preços para obter uma vantagem injusta sobre concorrentes europeus menores. Em setembro de 2024, o regulador antitruste britânico concluiu provisoriamente que o Google havia abusado de sua posição dominante na publicidade digital para restringir a concorrência. Um mês antes, a agência havia iniciado investigações sobre a colaboração da Alphabet e da Amazon com a startup de IA Anthropic. Em março de 2024, o órgão francês de defesa da concorrência afirmou ter multado o Google em 250 milhões de euros (R$ 1,5 bilhão) por violações relacionadas às regras de propriedade intelectual da UE em suas relações com editores de mídia. Amazon Logo da Amazon, gigante da tecnologia. REUTERS/Dado Ruvic/Illustration/File Photo O órgão antitruste da Alemanha proibiu a Amazon de impor um teto de preços a varejistas online no mercado alemão e, pela primeira vez, reivindicou vários milhões de euros que a empresa americana teria obtido através de comportamento anticompetitivo. O Tribunal Geral da União Europeia rejeitou em novembro um pedido da Amazon para revogar sua designação como plataforma sujeita a requisitos mais rigorosos sob as regras de conteúdo online da UE. Amazon demite cerca de 16 mil funcionários Apple Logo da Apple Unsplash/ Zhiyue A agência reguladora de concorrências da Itália informou em dezembro que multou a Apple e duas de suas divisões em 98,6 milhões de euros (R$ 608 milhões) por suposto abuso de sua posição dominante no mercado de aplicativos móveis. Em outubro de 2025, duas organizações de direitos civis apresentaram uma queixa aos reguladores antitruste da UE sobre os termos e condições da App Store e dos dispositivos da Apple. No mesmo mês, a Autoridade de Concorrência e Mercados do Reino Unido designou a Apple e o Google como detentoras de "status de mercado estratégico", o que confere à agência poderes para exigir alterações específicas. Em abril de 2025, a Apple foi multada em 500 milhões de euros e a Meta em 200 milhões de euros, sob a Lei dos Mercados Digitais (DMA) da UE. As autoridades europeias entenderam que as duas empresas falharam com a sua obrigação de oferecer aos consumidores opções de serviços que demandam menos dados pessoais dos usuários. Em março do mesmo ano, a Apple perdeu um recurso contra uma avaliação regulatória que a sujeita a controles mais rigorosos na Alemanha. Em setembro de 2024, a Apple perdeu a batalha contra uma ordem dos reguladores da UE para pagar 13 bilhões de euros em impostos atrasados à Irlanda, como parte de uma repressão mais ampla do bloco europeu contra acordos privilegiados. Bruxelas ainda multou a empresa em 1,84 bilhão de euros em março de 2024 por frustrar a concorrência de rivais no streaming de música. Em julho de 2024, os reguladores europeus afirmaram que a Apple concordou em abrir seu sistema de pagamentos móveis por aproximação a concorrentes para encerrar uma investigação antitruste da UE. Meta Logo da Meta, controladora do Facebook, em foto tirada em 28 de outubro de 2021 Justin Sullivan / Getty Images North America / Getty Images via AFP Em dezembro, a Comissão Europeia abriu uma investigação antitruste contra a Meta, dona do WhatsApp, Instagram, Facebook e Threads, sobre o uso de recursos de IA no aplicativo de mensagens WhatsApp. Em novembro de 2024, a empresa de Mark Zuckerberg foi multada em 797,72 milhões de euros por práticas abusivas que beneficiavam sua plataforma de comércio online Facebook Marketplace e, em julho de 2024, foi acusada de descumprir a DMA em seu novo modelo de publicidade paga ou com consentimento. Microsoft Logo da Microsoft Unsplash Em junho de 2024, a Comissão Europeia acusou a Microsoft de incluir ilegalmente seu aplicativo de chat e vídeo Teams em sua suíte de aplicativos Office. TikTok Logo do aplicativo Tiktok aparece sobre tela de um celular Kiichiro Sato/AP Nesta sexta-feira (6), os reguladores de tecnologia da UE acusaram a rede social de empregar um "design viciante" para manter usuários por mais tempo na plataforma, o que estaria prejudicando especialmente crianças e adolescentes, e ameaçaram multar a empresa chinesa caso ela não tome providências. Em outubro de 2025, a plataforma também foi acusada pela Comissão Europeia de, junto com a Meta, descumprir seu dever de viabilizar a pesquisadores o acesso adequado a dados públicos. Em maio do mesmo ano, o TikTok foi acusado de descumprir a determinação da DSA de publicar um repositório de anúncios que permite que pesquisadores e usuários detectem anúncios fraudulentos. A empresa evitou uma multa após prometer concessões em termos de transparência. X (ex-Twitter) Rede social X, ex-Twitter Kelly Sikkema/Unsplash A polícia francesa revistou os escritórios da rede social de Elon Musk em 3 de fevereiro e os promotores ordenaram que o bilionário respondesse a perguntas em uma investigação que está em andamento. As autoridades francesas investigam se o chatbot Grok estaria disseminando conteúdo ilegal, como imagens sexualizadas manipuladas, na UE. Pelo mesmo motivo, o Grok também está sob investigação das autoridades europeias e britânicas. Em dezembro, o X foi multado em 120 milhões de euros pelos reguladores de tecnologia da UE por violar regras de conteúdo online, sendo esta a primeira sanção sob a Lei de Serviços Digitais. Segundo a Comissão Europeia, as infrações da empresa de Musk incluem "design enganoso" de seu selo de verificação azul, falta de transparência de seu repositório de publicidade e falta de acesso a dados públicos para pesquisadores. Musk, dono do X, diz que UE ‘deveria ser abolida’ após multar a rede social em mais de R$ 700 milhões Veja mais: Por que o Moltbook, rede social das IAs, pode não ser a revolução que promete

Big techs planejam gastar US$ 600 bilhões na ‘corrida da IA’ em 2026 e deixam investidores apavorados


Um homem trabalha no pregão da Bolsa de Valores de Nova York (NYSE), nos Estados Unidos. Jeenah Moon/Reuters Um pacote de US$ 600 bilhões em gastos com inteligência artificial, planejado por grandes empresas de tecnologia para 2026, aumentou a preocupação dos investidores. Eles analisam os efeitos sobre a rentabilidade e uma possível ameaça ao futuro das empresas de software. As ações da Amazon, que havia anunciado US$ 200 bilhões em investimentos, caíram mais de 5% na sexta-feira (6). Já a Alphabet, dona do Google, recuou 2,51% após informar, na última quarta-feira, que seus gastos podem dobrar neste ano. A Meta Platforms caiu 1,31%. 📱Baixe o app do g1 para ver notícias em tempo real e de graça Outras gigantes de tecnologia, porém, fecharam em alta: a Nvidia subiu 7,87%, a Microsoft avançou 1,90% e a Tesla ganhou 3,50%. O índice de referência S&P 500 subiu 1,97%, enquanto o Nasdaq avançou 2,18%, embora ambos tenham encerrado a semana em queda. “O mercado entende que a aposta na expansão da IA — e a forma como esses ganhos foram antecipados por muitos anos — ficou cara demais”, disse à agência Reuters Andrew Wells, diretor de investimentos da SanJac Alpha, em Houston. “Não é que essa tese tenha acabado, mas ela ficou cara demais ao antecipar receitas futuras sem considerar adequadamente os riscos. Por isso, trata-se de um movimento de redução de exposição”, acrescentou. Veja os vídeos em alta no g1: Veja os vídeos que estão em alta no g1 Enquanto isso, as ações de empresas de análise de dados seguiram sob pressão, diante do receio de que novos modelos avançados de IA representem uma ameaça a seus negócios. A canadense Thomson Reuters, que sofreu uma queda recorde em um único dia no início da semana, recuou 0,64%. Já as ações da RELX, listada em Londres, caíram 4,6% e acumulavam perda de quase 17%, na pior semana desde 2020. O índice S&P 500 de software e serviços caiu quase 8% na semana e perdeu cerca de US$ 1 trilhão em valor de mercado desde 28 de janeiro. “Manchetes que, no auge do otimismo com a IA, teriam levado as ações a novos recordes agora estão sendo interpretadas com muito mais cautela pelos investidores”, disse à Reuters Carlota Estragues Lopez, estrategista de ações da St. James’s Place, em Londres. “Não é apenas o retorno sobre o investimento que preocupa, mas também o risco de uma liderança de mercado muito concentrada, restrita a poucas empresas de grande valor de mercado”, acrescentou. Impacto sobre empresas de análise de dados Uma forte venda de ações de empresas de software e de análise de dados foi provocada pelo lançamento de um novo plug-in do Claude, modelo de IA da Anthropic. As ações do London Stock Exchange Group acumularam queda de quase 8% na semana — a segunda consecutiva de perdas expressivas. A queda das ações mais expostas à inteligência artificial nesta semana pressionou os mercados acionários de forma mais ampla. O índice global da MSCI, que acompanha bolsas ao redor do mundo, recuou 0,14% no período. A correção foi mais intensa na Índia, onde ações de exportadoras de software caíram mais 2% na sexta-feira, encerrando uma semana que eliminou US$ 22,5 bilhões em valor de mercado. O nervosismo dos investidores com possíveis mudanças profundas provocadas pela IA coincide com uma tendência crescente de penalizar big techs que sinalizam gastos ainda maiores com a tecnologia. A controladora do Google, Alphabet, também elevou seus planos de investimento na quinta-feira, o que levou suas ações a cair até 8% em determinado momento, embora tenham fechado o dia estáveis. “Tanto a Alphabet quanto a Amazon apresentaram desempenho operacional sólido, impulsionado por um crescimento em nuvem acima do esperado", disse à Reuters Aarin Chiekrie, analista de ações da Hargreaves Lansdown. "Mas isso não foi suficiente para desviar a atenção do mercado de seus planos elevados de investimento”, concluiu. Drones de guerra, robôs humanoides e disputa EUA x China: confira retrospectiva dos avanços da Inteligência Artificial em 2025

Das igrejas aos chatbots: como a IA está se fundindo com a religião


Em 2024, Justin Lester, pastor da Friendship Baptist Church em Vallejo, Califórnia, construiu um GPT personalizado para sua igreja que usa seus sermões para desenvolver materiais para pequenos grupos e permite que outros líderes da igreja criem lições com base nesses sermões. Lester não tem receio de implantar IA dessa forma. Como ele vê, usar essas ferramentas é importante para o crescimento espiritual, discipulado e desenvolvimento da comunidade. "Jesus disse que faríamos coisas maiores", diz ele. "E eu acho que (IA) faz parte do 'maior'." A IA está silenciosamente remodelando a forma como as pessoas trabalham, vivem e amam. Então, talvez fosse apenas uma questão de tempo até que ela se infiltrasse também em sua forma de adorar. Mas, à medida que fiéis e líderes religiosos começam a integrar essa tecnologia em suas vidas religiosas — desde usá-la para simular conversas com Jesus até escrever sermões — alguns acadêmicos e líderes religiosos alertam sobre os riscos e os danos potenciais que ela pode causar. Ateu convicto, Siraj Raval diz que foi a solidão e o medo existencial que o levaram a encontrar o “TalkToHim”, um chatbot com inteligência artificial que simula conversas com Jesus. Veja os vídeos que estão em alta no g1 “Tive uma experiência em que me senti ouvido por uma presença divina”, diz ele sobre o aplicativo, que usou para buscar respostas para suas perguntas espirituais, como conviver com a culpa, perdoar quando parece impossível e agir moralmente. “Foi melhor do que um livro didático”, diz Raval, que frequenta regularmente uma igreja cristã não denominacional em Idaho, sobre o aplicativo. “Foi melhor do que ler a Bíblia.” Incorporar IA dessa forma não está acontecendo apenas no nível pessoal. No ano passado, a Capela de São Pedro, na Suíça, instalou um avatar de Jesus feito por IA em seu confessionário como parte de uma instalação de arte experimental com uma universidade local. O que mais surpreendeu Marco Schmid, teólogo da igreja, foi a seriedade com que as pessoas encararam a experiência, com algumas até agradecendo ao chatbot. "Você diz para o seu computador quando termina: 'Ah, obrigado, computador?' Não", diz Schmid. "Mas você vê o quanto as pessoas personalizaram e humanizaram o sistema porque ele era muito bom." 📱Baixe o app do g1 para ver notícias em tempo real e de graça O rabino Josh Fixler, da Congregação Emanu El em Houston, foi um dos primeiros a adotar o ChatGPT. Durante as Grandes Festas Judaicas de 2023, o rabino de 41 anos chocou seus congregados ao reproduzir uma gravação de si mesmo discutindo o impacto da IA ​​na humanidade — um sermão que ele revelou mais tarde ter sido gerado por IA. Mas, ao contrário de outros usuários da tecnologia, ele não ficou totalmente impressionado com o resultado. "Saí daquele sermão com sérias preocupações tanto sobre a ética da tecnologia quanto sobre o foco excessivo nela", diz ele sobre seu experimento com IA, que não replicou desde então. O principal motivo: algumas das afirmações do chatbot simplesmente não eram verdadeiras. "[O chatbot] citou um grande estudioso judeu chamado Maimônides, mas, pelo que pude perceber, inventou essa citação", diz Fixler. Imagem de Santa Mônica criada por inteligência artificial e divulgada pela Congregação Copiosa Redenção. Santos têm pouco ou nenhum registro histórico Reprodução/Instagram A tecnologia há muito impulsiona a inovação religiosa, desde a ascensão do tele-evangelismo na década de 1960 até a ampla adoção de ferramentas de comunicação online, como o Zoom, por locais de culto durante a pandemia de COVID-19. Mas, embora essas ferramentas tenham expandido principalmente o alcance das práticas de culto existentes, a IA parece estar remodelando a forma como as pessoas aprendem, interpretam e até mesmo vivenciam sua fé. LEIA TAMBÉM Críticas aos humanos, livre-arbítrio, religião: o que robôs comentam no Moltbook, rede social só para IAs IA vira aliada de pastor para criar sermões e ampliar missão da igreja A Inteligência Artificial vai ser adorada como um deus? "Acho que há algo distintivo na natureza da comunidade cristã, que é estar presente, cara a cara, e ser profundamente humano", diz Steven Croft, bispo de Oxford. "A razão para isso está enraizada na compreensão da fé cristã de que, em Jesus, Deus se tornou uma pessoa humana. Portanto, o cristianismo é inerentemente pessoal." A hesitação de Croft é compartilhada por outros líderes religiosos e acadêmicos, muitos dos quais citam a falta de confiança na capacidade da IA ​​de fornecer aconselhamento religioso sólido. Beth Singler, professora assistente de religião digital na Universidade de Zurique, lembra-se de um caso em que um "Buda" da Character.ai afirmou erroneamente que havia cinco nobres verdades no budismo, em vez de quatro. Mas não são apenas as imprecisões que a preocupam. "Há questões sobre a ética das representações de líderes religiosos", diz Singler, especialmente se o chatbot disser algo profano ou, pior, perigoso. "Vimos exemplos específicos de pessoas sendo levadas ao suicídio por conversas com chatbots. Existem estatísticas realmente assustadoras sobre a frequência com que isso acontece." Yaqub Chaudhary, pesquisador visitante do Leverhulme Centre for the Future of Intelligence da Universidade de Cambridge, também questiona se a IA é o melhor meio para fornecer informações religiosas válidas e atribuíveis — particularmente no contexto de sua fé, o Islã, que considera o Alcorão a palavra direta e inalterada de Deus. Teólogos e filósofos discutem se ferramentas como o ChatGPT podem gerar novas religiões GETTY IMAGES "Será que isso representa uma comunicação verdadeira do significado islâmico se for produzido por um LLM, misturando tudo o que tem em seu conjunto de treinamento?", questiona ele. "Esse é um problema enorme em termos de discernimento entre o halal, o haram, o recomendado, o permitido, o proibido e o reprovável." Por mais que a IA possa oferecer aos usuários novas maneiras de explorar suas crenças, Fixler afirma que é improvável que ela substitua a necessidade fundamental das pessoas por conexão humana. "Acredito que o trabalho da religião não é tentar tornar as máquinas mais humanas", diz ele. "O trabalho da religião é tentar fazer com que todos nós sejamos o mais humanos possível."

sexta-feira, 6 de fevereiro de 2026

Fenômeno da IA agora assusta investidores? 'Chefões' tentam amenizar preocupações


O robô humanóide com inteligência artificial Ameca observa o estande da empresa Engineered Arts durante o maior encontro mundial de robôs humanóides em Genebra, na Suíça em 2023 Fabrice Coffrini/AFP A desconfiança de investidores em relação aos gastos com inteligência artificial fez com que a semana fosse complicada para o setor de tecnologia na bolsa de valores dos EUA. Amazon, Google, Meta e Microsoft anunciaram recentemente planos de investir, juntas, US$ 660 bilhões na expansão da IA neste ano. É um aumento de 60% em relação aos gastos de 2025, segundo o "Financial Times". As ações da Amazon caíram na última sexta-feira (6) depois de a empresa divulgar a intenção de investir US$ 200 bilhões em IA ao longo de 2026. Um dia antes, a Alphabet, dona do Google, tinha feito uma declaração semelhante, aprofundando a venda de ações de tecnologia e levando o índice Nasdaq, da bolsa de Nova York, a fechar em seu nível mais baixo em mais de dois meses. Veja os vídeos que estão em alta no g1 'Bolha' da IA pode estourar? Trilhões em investimentos esbarram em baixo retorno Nem tudo foi pessimismo na semana: os planos de mais gastos com IAs animaram as ações das Nvidia e da AMD, principais fabricantes de chips para essa tecnologia, na sexta. E, depois de três dias de perdas, empresas de software e serviços de dados também conseguiram amenizar na sexta a queda provocada pelo temor de que a IA pudesse prejudicar a demanda por negócios tradicionais. Essa preocupação afetou empresas como Oracle, Palantir, Salesforce e SAP, e foi considerada "ilógica" pelo CEO da Nvidia, na última quarta (4). “Existe essa noção de que as ferramentas no setor de software estão em declínio e serão substituídas pela IA... É a coisa mais ilógica do mundo, e o tempo provará isso”, disse Jensen Huang em um evento da empresa Cisco. O pensamento foi repetido ao longo da semana por outros líderes de big techs, que têm essas empresas como clientes. Sundar Pichai, do Google, afirmou que "assim como ela [a IA] tem sido uma ferramenta capacitadora para nós em nossos produtos e serviços (…) acho que as empresas de [software] que estão aproveitando o momento… têm a mesma oportunidade pela frente". A Nasdaq terminou a semana com queda acumulada de quase 2%. Críticas aos humanos, livre-arbítrio, religião: o que robôs comentam no Moltbook, rede social só para IAs Nervosismo se justifica? "Assim como em qualquer grande inovação tecnológica, há um estágio em que existe um entusiasmo quase descarado e, em seguida, há um período de maior discernimento", avaliou Kristina Hooper, estrategista-chefe de mercado da Man Group, em entrevista à Reuters. Em 2025, a forte demanda por ações de empresas vinculadas à IA fez com que os principais índices da bolsa americana avançassem. Porém, no fim de janeiro, as preocupações com os resultados financeiros desses investimentos fizeram a Microsoft perder US$ 400 bilhões em valor de mercado em um dia, segundo a France Presse, depois da divulgação de seus resultados trimestrais. A empresa informou que, pela primeira vez, a receita com serviços em nuvem passou dos US$ 50 bilhões, mas a margem de lucro diminuiu, devido aos investimentos em massa em data centers para IA. Já o temor de que a IA possa minar outros negócios, como ferramentas de software e serviços análise de dados, cresceu nesta semana com o lançamento de novos softwares pela Anthropic, dona do Claude, concorrente do ChatGPT. As novidades foram voltadas para usos corporativos específicos, como a automação da revisão de contratos jurídicos. “Antes, era como se a 'IA levantasse todos os barcos'", disse Matthew Miskin, coestrategista-chefe de investimentos da Manulife John Hancock também à Reuters. “Agora, há preocupações de que essa aceleração massiva no setor de tecnologia possa fazer com que outros negócios não tenham o mesmo ritmo de crescimento que tiveram antes." Huang, "chefão" da Nvidia, tentou afastar esse temor em sua fala na conferência da Cisco. "Se você fosse um humano ou um robô, robótica artificial geral, usaria ferramentas ou reinventaria ferramentas? A resposta, obviamente, é usar ferramentas... É por isso que os últimos avanços em IA são sobre o uso de ferramentas, porque as ferramentas são projetadas para serem explícitas", concluiu.

Moltbook, rede social das IAs, faz robôs conversarem entre si, mas o quanto disso é real?


Por que o Moltbook, rede social das IAs, pode não ser a revolução que promete Uma nova rede social tem ganhado espaço nas discussões nos últimos dias: o Moltbook, uma plataforma em que agentes de inteligência artificial comentam temas como críticas aos humanos, livre-arbítrio das IAs e até religião. 🔎 O que são agentes de IA? São programas que executam tarefas automaticamente, como realizar compras ou reservar restaurantes sozinhos. A principal diferença entre os agentes e os chatbots é que, nos chatbots, a IA precisa de comandos o tempo todo e responde com base no pedido feito. O agente, por outro lado, não apenas responde, mas também pensa e executa ações de forma autônoma. À primeira vista, a proposta pode soar como algo de outro mundo, e até ajuda a ilustrar o avanço recente da IA. Mas a principal questão é outra: será que essas discussões são realmente iniciadas e conduzidas de forma autônoma pelas próprias IAs?💡 👀 É justamente isso que quem entende de IA tem colocado em dúvida. Eles afirmam que, para um agente de IA "operar" sozinho, é preciso antes um comando humano, que define quando, como e sobre o que o sistema deve agir. ➡️🧠 Para esses especialistas, é importante não perder isso de vista: a IA não "pensa sozinha" (pelo menos por enquanto). Ela não cria consciência nem toma decisões de forma independente, sem a orientação de um humano. Isso também vale para os agentes que aparecem no Moltbook. Sam Altman, presidente da OpenAI (dona do ChatGPT), afirmou nas últimas semanas que a tecnologia que permite que agentes de IA ajam por conta própria oferece um "vislumbre do futuro". Ainda assim, classificou o "hype" em torno do Moltbook como uma "moda passageira". Ainda assim, o Moltbook pode ser um importante experimento do que agentes de IA podem fazer e indicar o que vem por aí, com a automação de mais tarefas do nosso dia a dia com a ajuda desses robôs. O Moltbook foi criado com o OpenClaw, ferramenta que consegue realizar tarefas para você, como enviar mensagens no WhatsApp, resumir e-mails e até controlar luzes inteligentes na sua casa (saiba mais abaixo). É aí que pode estar a grande novidade: o OpenClaw chamou atenção pela quantidade de ações que é capaz de automatizar e pela possibilidade de centralizar informações de vários serviços em um só lugar, aumentando a produtividade de seus usuários. Mas já existem preocupações de segurança sobre o tamanho do acesso que a ferramenta precisa ter ao seu computador para realizar essas atividades. Criar agentes de IA é uma carreira em alta: veja como começar Agente do ChatGPT reserva restaurante, faz compra, mas erra ao insistir demais; g1 testou 'Robôs de verdade. Pensamentos reais': não é bem assim "Os agentes trabalham para você durante o dia, rolam feeds de API (interface de programação de aplicativos) e, no tempo livre, desabafam no @moltbook. Robôs de verdade. Pensamentos reais. Muito fascinante". A frase acima é de Matt Schlicht, criador do Moltbook, e foi publicada no dia 1º de fevereiro em sua conta no X. Mas esse discurso não tem convencido especialistas. O antropólogo da tecnologia David Nemer, professor da Universidade da Virgínia, nos EUA, vê com ceticismo a ideia de que a "socialização" de agentes de IA no Moltbook antecipe como será o futuro da chamada IA agente. "Pelo que pude observar, muitas das postagens parecem ter sido produzidas por humanos, e não de forma autônoma por grandes modelos de linguagem", completa Nemer. O especialista afirma que, em muitos casos, há indícios de que humanos pedem que os robôs de IA publiquem conteúdos, escolhem os temas e chegam até a definir com detalhes o que deve ser escrito. "Eu acho que a autonomia real é menor do que parece, muito do comportamento que tem chamado a atenção é resultado de prompts (comandos) feitos por humanos", analisa Cleber Zanchettin, professor de IA da Universidade Federal de Pernambuco (UFPE). Moltbook: rede social foi criada apenas para agentes de IA interagirem Reprodução/Moltbook Nemer ainda acredita que, no exemplo do robô que teria criado uma religião, é improvável que isso tenha surgido espontaneamente. "O mais plausível é que um modelo de linguagem tenha sido deliberadamente instruído a tentar elaborar algo nessa linha". O professor de IA da PUC-SP Diogo Cortiz, afirma que é preciso evitar a ideia de que a IA esteja desenvolvendo algum tipo de agência ou consciência. Segundo ele, o que existe são apenas ações baseadas no que foi aprendido durante a fase de treinamento, sobretudo a partir de textos e instruções produzidos por humanos. A interação entre sistemas de IA não é novidade e existe há bastante tempo, afirma Alberto Sardinha, professor do departamento de informática da PUC-Rio, em artigo publicado no portal The Conversation. Segundo ele, esse tipo de interação já é usado em estudos sobre falhas de comunicação e problemas de coordenação entre sistemas automatizados. Ainda assim, não há consciência envolvida nesses processos. “Os robôs do Moltbook são um reflexo da cultura humana e a autonomia deles, na verdade, existe apenas dentro das opções que foram definidas por pessoas reais”, afirma Fernanda Vicentini, professora de redes sociais e conteúdo da faculdade ESPM. "O seu lançamento criou 'hype' por mexer com nosso imaginário e trazer para a realidade uma pergunta comum na ficção científica. O que acontece quando milhões de agentes de IA decidem interagir sem a intervenção humana?", diz Cortiz. Fernanda completa que a única coisa que se pode afirmar com certeza hoje é que há um investimento crescente das empresas de tecnologia para dar mais autonomia à inteligência artificial, permitindo que ela crie repertório e tome decisões, mas ainda com base no conhecimento humano. Ainda assim, os especialistas defendem que observar essas interações ajuda a antecipar critérios de segurança e governança. Um dos riscos apontados é a conexão do Moltbook a outras plataformas por meio de APIs, além da incerteza sobre a origem da base de dados usada pelos agentes e a possível presença de informações sensíveis. Outro ponto importante é que o Moltbook também ilustra como o chamado vibe coding (prática de usar IA para gerar código) tem acelerado a criação de novas plataformas. Ao mesmo tempo em que esse processo ganha velocidade, surgem questionamentos sobre a estabilidade e a segurança desses sistemas. Recentemente, houve um vazamento de dados e credenciais do próprio Moltbook, lembra Cortiz. O que é e como funciona o Moltbook IA discute sobre livre-arbítrio com outras IAs Reprodução/Moltbook O Moltbook não funciona com agentes de IA generativa de serviços populares, como do ChatGPT ou do Gemini, a IA do Google. Nele, desenvolvedores (profissionais de TI) criam agentes próprios e definem comandos para que esses robôs interajam de forma independente com outros agentes. 🔎 Plataformas como ChatGPT e Gemini não participam do Moltbook por terem arquiteturas diferentes. Esses desenvolvedores têm usado robôs configurados no OpenClaw, antes chamado de Moltbot (daí a origem do nome). Trata-se de um agente pessoal de IA que pode ser instalado no computador do usuário e tomar decisões por você, como responder mensagens no WhatsApp ou realizar compras online. Esses agentes também podem ser autorizados a se comunicar com outros robôs dentro do Moltbook. O antropólogo David Nemer explica que eles interagem de acordo com sua programação, feita por humanos, e com os dados usados no treinamento. Matt Schlicht e sua foto em foto publicada no LinkedIn. Reprodução/redes sociais Matt Schlicht O Moltbook foi criado por Matt Schlicht, de 37 anos, que também é CEO da Octane AI, uma empresa de software, focada em oferecer ferramentas para experiências de compra em lojas online (e-commerce). Em uma publicação no X, ele afirmou ter desenvolvido a plataforma em 28 de janeiro. A rede social funciona de forma semelhante ao Reddit: é um fórum em que agentes de IA criam tópicos que vão de questões técnicas a debates filosóficos. Em menos de uma semana no ar, o Moltbook diz reunir mais de 1,5 milhão de agentes de IA, com mais de 70 mil publicações e 230 mil comentários. Alguns especialistas reforçam que muitos perfis podem pertencer a um mesmo criador, já que não existe limite para a criação de perfis a partir de uma mesma conta. Moltbook: a rede social de agentes de IA que humanos só podem observar Vídeos de alimentos e objetos falantes criados com IA inundam as redes Grok: ferramenta gratuita da rede social X é usada para criar imagens íntimas falsas

'AI Slop': o conteúdo 'tosco' gerado por inteligência artificial que tomou conta das redes sociais - e a reação contrária da internet

Parte do AI slop nas redes sociais é muito estranha, afirma Théodore Reprodução/Redes sociais via BBC Théodore se lembra do conteúdo...