sábado, 21 de março de 2026

Posso falar da minha demissão nas redes? 'Vlogs' sobre desligamentos viralizam, mas exigem cuidados


'Vlog de demissão': vídeos de desligamentos viralizam, mas exigem cuidados Quem acessou as redes sociais nos últimos dias provavelmente se deparou com “vlogs de demissão”, vídeos em que trabalhadores registram a rotina no dia em que são desligados da empresa. Curiosamente, os bastidores de um momento delicado da vida profissional têm atraído milhões de visualizações. É o caso de Victoria Macedo, de 28 anos, que publicou no TikTok um vídeo sobre o dia em que foi desligada da Natura. O post alcançou mais de 1,5 milhão de visualizações. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 A repercussão impulsionou seu perfil como criadora de conteúdo e abriu portas para novas oportunidades, com convites para entrevistas de emprego — mesmo antes de atualizar currículo ou portfólio. Formada em administração e com uma segunda graduação em publicidade e propaganda em andamento, Victoria construiu carreira no mercado corporativo desde os 16 anos, com passagens por bancos e, mais recentemente, pela Natura. Lá, ingressou como estagiária em 2024, foi efetivada após oito meses e atuou no planejamento comercial até a reestruturação que levou à sua saída. Victoria trabalhava na empresa havia quase dois anos quando foi desligada. Paralelamente, já produzia conteúdo sobre rotina profissional no TikTok – hábito que ganhou força após a efetivação. A familiaridade com as câmeras, inclusive, a levou a participar do programa de influenciadores internos da empresa, no qual colaboradores divulgam a marca de forma voluntária. “Eles analisam nossas redes antes de aprovar, então sabiam exatamente o tipo de conteúdo que eu produzia”, conta. Mesmo assim, decidiu registrar a demissão para explicar aos seguidores por que deixaria de mostrar o dia a dia na empresa. “Eu pensei: vou postar porque vou parar de produzir esse tipo de conteúdo e as pessoas podem estranhar”, diz. A identificação do público foi imediata, e o vídeo viralizou no dia seguinte. Para Victoria, o tema é sensível e universal: “Quase todo mundo já passou ou vai passar por isso. É um momento frágil, mas muito real.” Ela acredita que o sucesso está justamente no contraste com a narrativa tradicional das redes profissionais, que costuma destacar promoções e conquistas – como no LinkedIn. “As pessoas se enxergam ali, no dia difícil que quase nunca aparece na internet”, afirma. Victoria Macedo, de 28 anos, foi demitida da Natura em uma reestruturação da empresa e compartilhou o processo nas redes sociais. Reprodução/Tiktok O caso não é isolado. Ao buscar por “vlog de demissão” no TikTok, é possível encontrar diversos vídeos que somam milhões de visualizações sobre o tema. Apesar da popularização, especialistas ouvidos pelo g1 alertam que é preciso cautela ao compartilhar esse tipo de conteúdo. A exposição pode trazer consequências para a vida profissional, especialmente dependendo do que é divulgado. “A demissão em si não é o problema, faz parte da trajetória de qualquer pessoa. O ponto-chave é como ela é exposta”, afirma Raquel Nunes, líder de RH na HUG. A especialista explica que conteúdos que revelam conflitos, críticas diretas ou detalhes internos tendem a gerar alerta entre recrutadores. Já publicações estruturadas, que destacam aprendizados, podem até fortalecer a imagem profissional. Segundo ela, profissionais de seleção não avaliam apenas o fato de alguém ter sido desligado, algo comum, mas a maturidade demonstrada ao comunicar esse momento. “No fim, o que se avalia é a capacidade de lidar com situações difíceis sem expor terceiros ou informações sensíveis”, diz. Recrutadores de grandes empresas acompanham redes sociais com frequência, especialmente quando um conteúdo viraliza. Isso não elimina automaticamente um candidato, mas influencia a percepção sobre competências como confidencialidade, inteligência emocional e profissionalismo. Em tempos de redes sociais, cada postagem ajuda a construir – ou desgastar – a marca pessoal do profissional. Conteúdos sobre demissão podem mostrar resiliência e autoconhecimento, mas também podem transmitir impulsividade. No caso de Victoria, por exemplo, ela afirma que teve cautela ao produzir os vídeos. Evitou mostrar colegas, ambientes internos ou qualquer informação confidencial, mantendo o foco na própria experiência. “Se você pretende continuar no mercado, não faz sentido expor ou difamar a empresa”, diz. Do sucesso à demissão: saiba por que algumas empresas têm se incomodado com os ‘blogueiros CLT’ 📱 Palavra ‘demissão’ impulsiona engajamento Outro caso é o da mineira Thaís Borges, de 26 anos, conhecida nas redes como Thaís do Millenium. Após mais de uma década trabalhando como CLT – sendo três anos e meio como designer sênior em uma multinacional – foi desligada pela primeira vez durante uma demissão em massa. O que poderia ser apenas um episódio traumático acabou se tornando um impulso para ampliar a presença digital. Formada em Publicidade e Propaganda pela Universidade Federal de Minas Gerais (UFMG), Thaís começou a trabalhar aos 14 anos, como jovem aprendiz na área de marketing. Com o tempo, migrou para o design de produtos e construiu carreira no setor. Até então, nunca havia enfrentado o desemprego. “Foi um baque, mesmo tendo me preparado financeiramente”, conta. A virada aconteceu quando decidiu registrar a própria demissão – e a reação do marido ao receber a notícia. O vídeo, publicado sem grandes expectativas, viralizou rapidamente e já acumula mais de meio milhão de visualizações. Para o público, parecia o início de uma trajetória como criadora de conteúdo. Mas Thaís explica que já produzia vídeos sobre carreira há cerca de quatro anos. “Algumas pessoas acharam que comecei depois da demissão, mas não. Eu já falava de vida profissional”, diz. Segundo a criadora, a explosão de alcance não foi por acaso e a palavra “demissão” carrega uma força emocional capaz de conectar pessoas. “Situações traumáticas geram empatia. É natural que as pessoas se compadeçam”, afirma. Desde então, ela passou a usar o termo de forma estratégica em títulos, falas e hashtags — tanto para ampliar o alcance quanto para normalizar a experiência. Eu não sabia do poder que a palavra ‘demissão’ poderia ter.” Conhecida nas redes como Thaís do Millenium, Thaís Borges, de 26 anos, compartilha conteúdos sobre demissão e carreira. Reprodução/Instagram Apesar de já produzir conteúdo sobre carreira, foi após esse episódio que seus vídeos ganharam maior alcance. A partir disso, passou a compartilhar a rotina de recolocação profissional, mostrando etapas como atualização de currículo e portfólio. Para Thaís, falar abertamente sobre o desligamento ajuda a romper o tabu. “Antes, eu via ‘demissão’ como algo negativo, como se estivesse ligado à competência. Hoje, falo com todas as letras: fui demitida. Quero desmistificar isso”, afirma. A repercussão nas redes também teve impacto direto na carreira. Mesmo sem se candidatar a vagas, Thaís recebeu contatos de empresas e convites para processos seletivos, muitos deles por indicação de seguidores. “Eu fiquei impressionada com o poder da internet de fazer as coisas acontecerem”, diz. “Antes mesmo de eu assimilar o que estava acontecendo, já tinha empresa me chamando para conversar, sem eu ter enviado currículo”, completa. Há um mês e meio sem emprego formal, ela ainda avalia os próximos passos. Enquanto isso, atualiza currículo e portfólio em pequenos avanços – seu lema é “1% todo dia” –, enquanto mantém a produção de conteúdo. Para ela, produzir para as redes também é trabalho, que exige planejamento, rotina e dedicação. “Eu não quero me limitar agora dizendo que quero um emprego CLT ou focar só na produção de conteúdo. Estou me deixando aberta para o que vier”, finaliza. 🧠 O que explica o fenômeno? Para a pesquisadora e professora Issaaf Karhawi, da Universidade de São Paulo (USP), o fenômeno de transformar a demissão em conteúdo está ligado a mudanças mais amplas na forma como as pessoas se relacionam com a exposição nas redes sociais. Segundo ela, esse movimento nasce do “borrão” entre vida privada e esfera pública, cada vez mais evidente nas plataformas digitais. Trabalho, lazer e intimidade se misturam, e o cotidiano passa a ser empacotado como uma narrativa para as redes sociais. “Vivemos uma convocação permanente à visibilidade. Tudo precisa ser tornado público, empacotado como conteúdo”, afirma. Para a pesquisadora, filmar um momento tradicionalmente íntimo, como o desligamento, revela como a vida profissional foi incorporada às práticas culturais online. Karhawi diz que o TikTok tem papel central nessa lógica. A plataforma fortaleceu formatos como os vlogs, já conhecidos no YouTube, mas agora adaptados a vídeos curtos sobre rotina, trabalho e produtividade – especialmente entre os jovens profissionais. O TikTok se consolidou como um espaço de conteúdos mais autênticos, que fogem da estética perfeita de outras redes. Os vlogs de rotina de trabalho já eram comuns, e a demissão passou a ser incorporada como parte dessa narrativa.” A pesquisadora avalia que esses vídeos funcionam como uma “contra-narrativa” em relação ao padrão tradicional das redes, historicamente marcado por performance, sucesso e conquistas. Enquanto Instagram e LinkedIn costumam funcionar como vitrines de promoção, mérito e ascensão, o TikTok tem aberto espaço também para rupturas, frustrações e momentos de vulnerabilidade. “Esses vídeos mostram algo que normalmente não aparece nas redes: o momento difícil. Isso gera conexão porque contrasta com a lógica de sucesso que domina plataformas como LinkedIn e Instagram”, afirma. Ela também destaca que conteúdos com forte carga emocional tendem a ganhar mais alcance. “Vídeos como esses geram muitas reações. E o algoritmo tende a ampliar aquilo que mobiliza atenção, seja ela positiva ou negativa”, diz. A professora lembra ainda que o fenômeno não é totalmente novo. Vídeos de demissão já circularam com força em 2024, especialmente durante os layoffs (demissões) em massa na indústria de tecnologia. Hoje, esse tipo de publicação se consolidou quase como um subgênero dentro da plataforma, reunindo pessoas que compartilham experiências semelhantes. Apesar do potencial de engajamento, Karhawi faz um alerta: a viralização pode até abrir portas no universo da influência, dependendo da forma como o criador aproveita essa exposição, mas não garante recolocação profissional em setores tradicionais. “Cada mercado reage de forma muito diferente. O setor da comunicação, por exemplo, não funciona como o agronegócio ou a indústria farmacêutica. Em algumas áreas pode ser mais aceito, em outras pode gerar resistência”, explica. A pesquisadora enfatiza ainda que viralizar não significa consolidar uma carreira como influenciador. Isso porque a maioria dos criadores que vivem de conteúdo tem anos de dedicação, e não apenas um vídeo de grande repercussão. Além disso, muitos seguem conciliando a produção digital com empregos formais. “A ideia de que basta viralizar para viver de conteúdo não corresponde à realidade. Construir uma carreira digital exige consistência e tempo”, afirma. Para Karhawi, a popularização desses vídeos diz menos sobre a demissão em si e mais sobre a forma como as plataformas moldam a experiência humana. “Nada escapa do imperativo da visibilidade. Trabalho, relacionamentos, lazer, tudo passa pela lógica de transformar a vida em conteúdo”, conclui. Conheça os 'blogueiros CLTs', que mostram a rotina e os perrengues de trabalho nas redes sociais ⚠️ Cuidados ao expor a demissão nas redes Segundo a especialista em RH Raquel Nunes, existe uma diferença clara entre compartilhar uma experiência pessoal e expor a empresa. Falar sobre sentimentos, aprendizados e trajetória é legítimo. Já divulgar detalhes internos, citar nomes, envolver gestores ou buscar validação por meio de conflito tende a ser visto como comportamento de risco – tanto para a reputação do profissional quanto para sua empregabilidade. A orientação é evitar publicações feitas no calor do momento. “Nada de expor a empresa, o gestor ou informações internas. O ideal é focar no próprio processo e nos aprendizados”, afirma. Ela também recomenda que o trabalhador reflita antes de publicar: “Como isso seria interpretado em um processo seletivo?” Para a especialista, o tema deve ganhar ainda mais espaço com o avanço dos conteúdos sobre rotina de trabalho nas redes. Por isso, o cuidado com a imagem profissional se torna ainda mais relevante. “Conte sua história, mas com consciência de que ela também compõe sua reputação profissional”, completa. Além dos impactos na imagem, a exposição pode trazer consequências legais. Segundo a advogada trabalhista Isabel Cristina, do escritório Ferraz dos Passos, a liberdade de expressão do trabalhador não é absoluta – especialmente quando envolve a imagem do empregador. Compartilhar vídeos gravados dentro da empresa, mostrando colegas, chefes ou processos internos, pode caracterizar violação de confidencialidade e descumprimento de regras de compliance. De acordo com a especialista, muitas empresas possuem cláusulas que proíbem gravações ou a divulgação da marca sem autorização. Nesses casos, o trabalhador pode ser responsabilizado por danos à reputação da companhia. Se o conteúdo tiver tom irônico, ofensivo ou crítico, a situação pode ser interpretada como ato lesivo à honra do empregador – o que abre espaço para pedidos de indenização. O risco é ainda maior quando a publicação ocorre durante o aviso prévio ou enquanto o desligamento ainda está em andamento. 📌 Quando a demissão pode virar justa causa Nesses casos, a empresa pode até reverter uma dispensa comum em demissão por justa causa. Segundo o advogado trabalhista Cid de Camargo Júnior, isso pode acontecer quando há publicação de conteúdo ofensivo enquanto o contrato ainda está em vigor. Como o contrato ainda está ativo, a empresa pode reverter a dispensa para justa causa, desde que comprove a gravidade da conduta. Ele ressalta que a mudança não é automática e depende de análise da Justiça, já que a justa causa é a penalidade mais severa prevista na legislação trabalhista. Mesmo após o fim do vínculo, a empresa ainda pode recorrer à Justiça para pedir indenização por danos morais ou materiais. Embora não exista uma legislação específica sobre redes sociais nesses casos, as regras da Consolidação das Leis do Trabalho (CLT) podem ser aplicadas ao ambiente digital. Entre as situações previstas estão: ato lesivo à honra ou à imagem do empregador; mau procedimento; indisciplina ou insubordinação. Segundo especialistas, a Justiça do Trabalho já reconhece que o comportamento nas redes pode impactar diretamente a relação profissional. Trabalhador pode ser demitido por conta de publicações nas redes sociais? Veja como funciona Do sucesso à demissão: empresas têm se incomodado com os ‘blogueiros CLT’

sexta-feira, 20 de março de 2026

Como TikTok e Meta ignoraram segurança para ganhar disputa por engajamento, segundo ex-funcionários


Denunciantes deram uma visão de dentro da corrida entre algoritmos que se seguiu ao crescimento explosivo do TikTok BBC/Getty Images Gigantes das redes sociais permitiram mais conteúdo nocivo nos feeds dos usuários, mesmo depois que pesquisas internas sobre os seus algoritmos mostraram que a indignação impulsionava o engajamento, disseram à BBC pessoas que são ou foram ligadas a essas empresas. Mais de uma dúzia de denunciantes e pessoas de dentro das empresas expuseram à BBC como essas companhias assumiram riscos de segurança em questões como violência, chantagem sexual e terrorismo, enquanto disputavam a atenção dos usuários. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 Um engenheiro da Meta, empresa que controla as redes sociais Facebook e Instagram, descreveu como recebeu orientação da direção da empresa para permitir mais conteúdo nocivo "limítrofe", que inclui misoginia e teorias conspiratórias, nos feeds dos usuários para competir com outra rede social, o TikTok. "Eles basicamente nos disseram que era porque o preço das ações estava em queda", disse o engenheiro. Veja os vídeos que estão em alta no g1 Um funcionário do TikTok deu à BBC acesso raro aos painéis internos da empresa com reclamações de usuários, além de outras evidências de como funcionários foram instruídos a priorizar vários casos envolvendo políticos em detrimento de uma série de denúncias de publicações nocivas envolvendo crianças. As decisões estavam sendo tomadas para "manter um relacionamento forte" com figuras políticas e evitar ameaças de regulação ou proibições, e não por causa dos riscos aos usuários, disse o funcionário do TikTok. Os denunciantes que falaram no documentário da BBC Inside the Rage Machine (Dentro da Máquina de Raiva, em tradução livre) oferecem uma visão detalhada de como o setor reagiu após o crescimento explosivo do TikTok, cujo algoritmo altamente envolvente de recomendação de vídeos curtos transformou as redes sociais, deixando rivais correndo para tentar acompanhar. Matt Motyl, pesquisador sênior da Meta, disse que o concorrente do TikTok criado pela empresa, o Instagram Reels, foi lançado em 2020 sem proteções suficientes. Pesquisas internas compartilhadas com a BBC mostraram que os comentários no Reels apresentavam prevalência significativamente maior de bullying e assédio, discurso de ódio e violência ou incitação à violência do que em outras partes do Instagram. Matt Motyl disse que a Meta lançou o Instagram Reels sem proteções suficientes BBC ECA Digital: sites pornôs seguem sem checar idade, e redes tentam adivinhar faixa etária Google, Meta e TikTok explicam como verificam idade de usuários no Brasil Como denunciar posts em Facebook, Instagram, TikTok, Kwai e outras redes sociais A empresa investiu na contratação de 700 funcionários para expandir o Reels, enquanto equipes de segurança tiveram negada a contratação de dois especialistas para lidar com a proteção de crianças e de mais dez profissionais para ajudar na integridade das eleições, disse outro ex-funcionário sênior da Meta. Motyl, da Meta, entregou à BBC dezenas do que descreveu como "documentos de pesquisa de alto nível mostrando todo tipo de danos aos usuários nessas plataformas". Entre eles, havia evidências que mostravam que o Facebook estava ciente de problemas causados por seu algoritmo. Segundo um estudo interno, o algoritmo oferecia aos criadores de conteúdo um "caminho que maximiza os lucros às custas do bem-estar de sua audiência", e "o atual conjunto de incentivos financeiros que nossos algoritmos criam não parece estar alinhado com nossa missão" de aproximar as pessoas ao redor do mundo. O documento afirma que o Facebook pode "escolher permanecer inativo e continuar alimentando os usuários com conteúdo de qualidade duvidosa, mas isso só funciona por algum tempo". Em resposta às alegações dos denunciantes, a Meta disse: "Qualquer sugestão de que ampliamos deliberadamente o conteúdo nocivo para ganho financeiro é incorreta." O TikTok afirmou que essas são "alegações fabricadas" e que a empresa investe em tecnologia que impede que o conteúdo nocivo seja visualizado. O Facebook estava ciente de que seu algoritmo tinha problemas BBC TikTok reúne perfis que exaltam Hitler e nazismo com códigos e posts explícitos Vídeos no TikTok simulam agressões a mulheres em meio a recorde de feminicídios Os algoritmos são uma "caixa-preta", cujo funcionamento interno é difícil de examinar, disse Ruofan Ding, que trabalhou como engenheiro de aprendizado de máquina no desenvolvimento do mecanismo de recomendação do TikTok de 2020 a 2024. Ele afirmou que era difícil construir sistemas como esse que fossem completamente seguros. "Não temos controle sobre o próprio algoritmo de aprendizado profundo [deep learning]." Segundo ele, os engenheiros não prestam muita atenção ao conteúdo das publicações. "Para nós, todo o conteúdo é apenas um ID, um número diferente." Ele disse que dependiam das equipes de segurança de conteúdo para remover publicações nocivas e impedir que fossem promovidas pelo algoritmo. Segundo ele, essa relação entre as equipes é como a de diferentes grupos que trabalham em partes de um carro. "Há a equipe responsável pela aceleração, pelo motor, certo? Então esperamos que a equipe que trabalha no sistema de freios esteja fazendo um bom trabalho", disse. Mas Ding disse que, enquanto o TikTok atualizava seu algoritmo quase toda semana para ganhar mais espaço no mercado, ele passou a ver mais conteúdo "limítrofe" ou publicações problemáticas aparecendo depois que os usuários já estavam há algum tempo assistindo a vídeos. Conteúdo limítrofe é um termo usado por empresas de redes sociais para descrever publicações prejudiciais, mas que não violam as regras, como posts misóginos, racistas, sexualizados e teorias conspiratórias. Instagram e TikTok Reuters Adolescentes disseram à BBC que as ferramentas para indicar que não querem ver conteúdo problemático não funcionam e que ainda recebem recomendações de violência e discurso de ódio nas principais redes sociais. Em um caso extremo, outro adolescente, Calum - hoje com 19 anos - disse que havia sido "radicalizado pelo algoritmo" desde os 14 anos. O algoritmo lhe mostrava conteúdo que o deixava indignado e o levou a adotar visões racistas e misóginas, afirmou. Os vídeos "me energizavam, mas não de um jeito bom", disse ele. "Eles só me deixavam muito irritado. Refletiam muito a forma como eu me sentia por dentro, que eu estava com raiva das pessoas ao meu redor." Especialistas da polícia antiterrorismo no Reino Unido, que analisam milhares de publicações nas redes sociais todos os anos, dizem ter observado um aumento e uma "normalização" de posts antissemitas, racistas, violentos e de extrema direita nos últimos meses. "As pessoas estão mais dessensibilizadas à violência no mundo real e não têm medo de compartilhar suas opiniões", disse um dos agentes. 'Deletem o TikTok' Ao longo de vários meses em 2025, a BBC conversou regularmente com um integrante da equipe de confiança e segurança do TikTok, a quem estamos chamando de Nick. A BBC teve acesso ao painel interno da empresa no laptop dele, que mostrava os casos analisados por sua equipe e como respondia a eles. "Se você se sente culpado diariamente por causa do que é instruído a fazer, em algum momento começa a pensar: devo dizer algo?", disse Nick. Ele acrescentou que o volume de casos que estavam avaliando era grande demais para acompanhar e garantir a segurança dos usuários, deixando adolescentes e crianças especialmente em risco. Segundo ele, cortes e a reorganização de algumas equipes de moderação - nas quais algumas funções estão sendo substituídas por tecnologia de inteligência artificial - reduziram a capacidade da empresa de lidar de forma eficaz com esse tipo de conteúdo. Conteúdos ligados a "terrorismo, violência sexual, violência física, abuso e tráfico" parecem estar aumentando, disse o denunciante. A realidade do que o aplicativo recomenda e das medidas tomadas contra conteúdos nocivos é "muito diferente, em muitos aspectos, do que as plataformas dizem ao público", acrescentou. Nick mostrou à BBC evidências de que o TikTok tratava alguns casos relativamente simples envolvendo políticos como prioridade maior para revisão pela equipe de segurança do que vários casos envolvendo danos a adolescentes. Em um exemplo, um político que havia sido ridicularizado ao ser comparado a uma galinha recebeu prioridade sobre um jovem de 17 anos que relatou ser vítima de cyberbullying e falsificação de identidade na França, e sobre uma jovem de 16 anos no Iraque que disse que imagens sexualizadas, supostamente dela, estavam sendo compartilhadas no aplicativo. Ao falar sobre o caso no Iraque, Nick disse: "Se você olha o país de onde vem esse relato, é de altíssimo risco porque envolve um menor e chantagem sexual. Mas, você pode ver aqui, a prioridade não é alta." Imagem de abril de 2023 mostra prédio do TikTok na Califórnia Mike Blake/Reuters Nick também mostrou exemplos de publicações que incentivavam pessoas a se juntar a grupos terroristas ou a cometer crimes e que não haviam sido classificadas como prioridade máxima. Quando a equipe de confiança e segurança pediu para priorizar casos envolvendo jovens em vez de casos políticos, disse o denunciante, eles foram orientados a não fazer isso e a seguir tratando os casos de acordo com a identificação que haviam recebido. Códigos e até 'trends': a tática de grupos nazistas para espalhar discurso de ódio no TikTok Segundo Nick, isso acontece porque, em sua avaliação, a empresa se preocupa menos com a segurança das crianças do que em manter um "relacionamento forte" com políticos e governos, para evitar regulações ou proibições que poderiam prejudicar seus negócios. Nick disse que, quando ele e outros funcionários levantaram algumas dessas preocupações com a direção, não houve receptividade, porque eles "não são expostos a esse conteúdo no dia a dia". O conselho de Nick aos pais cujos filhos usam o TikTok é: "Apaguem o aplicativo. Mantenham as crianças o mais longe possível dele pelo maior tempo possível." O TikTok afirmou que rejeita a ideia de que conteúdo político tenha prioridade sobre a segurança dos jovens e disse que a alegação "deturpa fundamentalmente a forma como os seus sistemas de moderação funcionam". TikTok vira reduto de perfis que exaltam Hitler e o nazismo A equipe da qual Nick faz parte integra um sistema de segurança mais amplo, com várias equipes responsáveis por analisar denúncias sobre conteúdos. O TikTok afirmou: "Fluxos de trabalho especializados para determinadas questões não resultam na redução da prioridade de casos envolvendo segurança infantil, que são tratados por equipes dedicadas dentro de estruturas paralelas de revisão." Um porta-voz do TikTok disse que as críticas "ignoram a realidade de como o TikTok permite que milhões de pessoas descubram novos interesses, encontrem comunidade e sustentem uma economia vibrante de criadores". A empresa afirmou que contas de adolescentes têm mais de 50 recursos e configurações de segurança pré-definidos que são ativados automaticamente. Também disse que investe em tecnologia para impedir que conteúdos nocivos sejam exibidos, mantém regras rígidas de recomendação e oferece ferramentas para que os usuários personalizem sua experiência. 'Fazer o que for possível para recuperar o atraso' Em 2020, a disputa entre algoritmos ficou mais intensa quando o Instagram lançou o Reels, como resposta ao TikTok, que ganhou enorme popularidade durante a pandemia de Covid-19. Matt Motyl, que trabalhou como pesquisador sênior no Facebook e em sua empresa sucessora, a Meta, a partir de 2021, disse que essa foi a tentativa da companhia de "imitar" o "produto único" lançado pelo TikTok. Entre 2019 e 2023, seu trabalho envolvia "realizar experimentos em larga escala com, às vezes, centenas de milhões de pessoas" — que muitas vezes "não tinham ideia" de que isso estava acontecendo — para testar como o conteúdo era exibido nos feeds. "Os produtos da Meta são usados por mais de três bilhões de pessoas. Quanto mais tempo elas passam na plataforma, mais anúncios a empresa vende e mais dinheiro ganha. Mas é muito importante fazer isso da forma certa, porque quando isso não acontece, coisas muito ruins podem acontecer", disse. Quanto ao Reels, Motyl disse que a estratégia era avançar o mais rápido possível, independentemente do impacto sobre os usuários. Segundo ele, havia um "dilema comum entre proteger as pessoas de conteúdo nocivo e o engajamento". De acordo com um estudo que ele compartilhou com a BBC, a Meta estava tendo dificuldades para evitar danos no Reels após seu lançamento. O documento sugere que publicações no Reels tinham maior prevalência de comentários nocivos do que posts no feed principal do Instagram: 75% a mais de bullying e assédio, 19% a mais de discurso de ódio e 7% a mais de violência ou incitação à violência. Ele afirmou que havia um "desequilíbrio de poder", porque as equipes de segurança precisavam da aprovação das equipes responsáveis pelo Reels para lançar novos recursos que aumentassem a segurança dos usuários. Segundo Motyl, essas equipes tinham "incentivo para impedir o lançamento dessas ferramentas, porque o conteúdo tóxico gera mais engajamento do que conteúdo normal". Ícone do Instagram em um smartphone. Dado Ruvic/Reuters/Ilustração Brandon Silverman, cuja ferramenta de monitoramento de redes sociais Crowdtangle foi comprada pelo Facebook em 2016, participou de discussões em alto nível nesse período e disse que o CEO Mark Zuckerberg estava "muito paranoico" com a concorrência. "Quando ele percebe que há concorrência, não mede esforços nem dinheiro", disse Silverman. Ele afirmou que, nesse período, viu equipes de segurança lutando para conseguir aprovação para contratar poucos funcionários, enquanto a empresa priorizava a expansão do Reels. "Ao mesmo tempo, outra equipe disse: 'Acabamos de conseguir 700 pessoas para o Instagram Reels'. Eu pensei: ok", afirmou. Um ex-engenheiro da Meta, a quem estamos chamando de Tim, disse que, enquanto a empresa tentava competir com o TikTok, passou a permitir mais conteúdo nocivo limítrofe na plataforma. Segundo ele, sua equipe trabalhava para reduzir esse tipo de conteúdo, até que o "posicionamento de negócios" da empresa mudou. "Você está perdendo para o TikTok e, portanto, o preço das suas ações estava caindo. As pessoas começaram a ficar paranoicas e reativas e passaram a pensar: precisamos fazer tudo o que pudermos para recuperar o atraso. Onde podemos conseguir ganhar 2% ou 3% de receita no próximo trimestre?", disse Tim. Ele afirmou que a decisão de deixar de limitar conteúdos possivelmente nocivos, mas que não eram ilegais e geravam engajamento dos usuários, foi tomada por um vice-presidente sênior da Meta que, segundo ele, respondia diretamente a Mark Zuckerberg. Na época em que o Facebook dizia ser apenas um "espelho da sociedade", documentos internos compartilhados com a BBC por Motyl, o pesquisador sênior, revelam como a empresa sabia que estava amplificando conteúdo que deixava as pessoas irritadas e até incitava danos. Os documentos explicam que conteúdos sensíveis — como publicações ligadas a crenças morais ou que incentivam violência — tendem a gerar mais reação e engajamento na plataforma, especialmente quando provocam indignação. "Como esse conteúdo gera muito mais engajamento, nossos algoritmos passam a entender que os usuários gostam dele e querem ver mais", afirma o estudo. Silverman disse que, no início, a liderança da Meta parecia não saber como lidar com o conteúdo tóxico na plataforma e que houve um período em que a empresa estava "genuinamente introspectiva". Mas, segundo ele, essa posição "começou a se consolidar em uma espécie de postura defensiva". A atitude passou a ser a de que "não somos responsáveis por toda a polarização na sociedade", afirmou. "Ninguém está dizendo que vocês são responsáveis por toda a polarização. Estamos dizendo apenas que vocês contribuem para isso, e provavelmente de maneiras que poderiam evitar. Com algumas mudanças, essa contribuição poderia ser menor", afirmou Silverman. Um porta-voz da Meta negou as acusações feitas pelos denunciantes. "A verdade é que temos políticas rigorosas para proteger os usuários em nossas plataformas e fizemos investimentos significativos em segurança ao longo da última década", afirmou. A empresa também disse que "fez mudanças reais para proteger adolescentes online", incluindo a introdução de um novo recurso chamado Teen Accounts, "com proteções integradas e ferramentas para que os pais gerenciem a experiência de seus filhos adolescentes". Trend 'Caso ela diga não' estimula violência contra as mulheres e vira caso de polícia

MPT firma acordo para Meta bloquear perfis de crianças influencers sem autorização judicial


Ícone do Instagram em um smartphone. Dado Ruvic/Reuters/Ilustração O Ministério Público do Trabalho (MPT) e o Ministério Público de São Paulo (MP-SP) informaram nesta sexta-feira (20) que firmaram um acordo judicial com a Meta contra a exploração do trabalho infantil artístico irregular nas redes sociais. A Meta, dona do Instagram, do Facebook e do Threads, se comprometeu a identificar, de forma proativa, os perfis que apresentem trabalho infantil artístico sem autorização judicial e trabalho proibido, disse o MPT. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 A verificação por parte da empresa será periódica e vai considerar vários fatores, incluindo a presença de crianças ou adolescentes como protagonistas de conteúdos, o uso de contas com grande alcance (mínimo de 29 mil seguidores) e a atividade recente nas plataformas. Em caso de suspeitas, os responsáveis pelos perfis serão notificados para apresentar em até 20 dias alvará judicial que comprove a autorização para o trabalho infantil. O MPT e o MP-SP também poderão indicar perfis para análise. Caso a situação não seja regularizada, a conta será bloqueada no Brasil em até 10 dias. Veja os vídeos que estão em alta no g1 Como prints do bloco de notas criaram mais rastros de conversa entre Vorcaro e Moraes Vídeos no TikTok simulam agressões a mulheres em meio a recorde de feminicídios Youtuber diz não ter R$ 70 mil para pagar condenação por ridicularizar bebê e pede a juiz: 'Por favor, reconsidere' A Justiça do Trabalho em São Paulo proibiu, em agosto de 2025, o trabalho de influenciadores mirins no Instagram e no Facebook sem autorização judicial. A Meta entrou com uma liminar, mas a decisão foi mantida. O acordo também prevê que a Meta crie mecanismos de denúncia e sistemas de verificação de idade que impeçam a autodeclaração como único critério, além de restringir o acesso de menores de 18 anos a programas de monetização. A autodeclaração também foi proibida pelo Estatuto Digital da Criança e do Adolescente (ECA Digital), que entrou em vigor na última terça-feira (17) – entenda o que mudou. A lei determina que plataformas direcionadas a crianças e adolescentes ou com acesso provável por esse público devem "adotar mecanismos para proporcionar experiências adequadas à idade". Os procuradores consideraram o acordo com a Meta "um avanço significativo em prol da proteção de crianças e adolescentes nas dinâmicas de trabalho em ambiente digital, especialmente diante do crescimento da produção de conteúdo por crianças e adolescentes nas redes sociais". O descumprimento do acordo poderá levar a multa de R$ 100 mil por criança ou adolescente em caso de ausência de bloqueio de conta irregular e de R$ 300 mil por descumprimento de outras obrigações de fazer. Ainda em caso de violação, a Meta será obrigada a recolher R$ 2,5 milhões a fundos de proteção à infância e à adolescência. ECA Digital: estão em vigor as novas regras para menores em redes sociais, jogos e sites

#NÃO É BEM ASSIM: 'GTA VI' não será comercializado no Brasil após implementação da 'Lei Felca'


Medida afeta apenas loja do PC da Rockstar; jogo continuará disponível em outras plataformas e consoles no país g1 Circulam nas redes sociais publicações afirmando que a Rockstar Games, desenvolvedora americana de video-games, não irá mais comercializar seus títulos, incluindo o sexto volume da série "Grand theft auto (GTA)", no Brasil. As postagens, compartilhadas por perfis de direita e extrema direita nas redes, associam a suposta desistência da empresa à entrada em vigor da lei 15.211/2025, o Estatuto da Criança e do Adolescente Digital (ECA) Digital, apelidado de "Lei Felca", em referência ao influenciador Felipe Bressanim, que viralizou em 2025 após publicar um vídeo sobre a adultização de menores nas redes sociais. #NÃO É BEM ASSIM. selo não é bem assim arte 📝 Como é o post? As postagens afirmam que a empresa, que também assina as séries "Red dead" e "Max Payne", retirou as ofertas de seus jogos do país para cumprir com a regulamentação estabelecida pelo ECA Digital. Os posts – que incluem referências visuais e menções a Felca e ao presidente Luiz Inácio Lula da Silva (PT), que nesta quarta-feira (18) assinou três decretos para regular a medida – argumentam que o texto impõe a "censura" do jogo eletrônico para o público, incluindo maiores de idade. "É sempre a mesma história: quem deveria proteger, decide controlar. E a gente, que só queria jogar, paga o preço", diz uma publicação no X. A lei que protege crianças e adolescentes na internet começou a valer nesta terça-feira (17) e precisava de decretos para regulamentar alguns pontos (assista aos vídeos ao final desta checagem). ⛔ Por que #NÃO É BEM ASSIM? As postagens são enganosas porque, apesar de a nova regulamentação ter de fato obrigado o mercado de jogos eletrônicos a implementar medidas de verificação de idade e restrição de conteúdo +18, a Rockstar jamais anunciou que deixará de comercializar seus produtos no Brasil por completo. Em comunicado divulgado nesta terça, a empresa anunciou que irá parar de vender jogos para o Windows diretamente a consumidores no Brasil por meio de sua loja digital própria, mas que as obras, incluindo "Grand theft auto VI", previsto para ser lançado em novembro, continuarão disponíveis em mídia física e digital através de lojas eletrônicas como a PlayStation Store, a Microsoft Store e a Steam e poderão ser jogados normalmente em plataformas como PlayStation 5, Xbox Series X/S, Nintendo Switch 2 e PC. A mudança está relacionada às novas exigências da legislação brasileira, que determina que plataformas digitais adotem mecanismos mais rigorosos de verificação de idade. Segundo o texto, métodos baseados apenas em autodeclaração — como o tradicional botão "tenho mais de 18 anos" — não são suficientes, sendo necessário implementar sistemas mais confiáveis. Para evitar adaptações técnicas imediatas, algumas empresas têm optado por restringir serviços no Brasil ou limitar o acesso de menores. No caso da Rockstar, a decisão foi suspender as vendas diretas no país via PC. Ainda assim, microtransações dentro de jogos, como conteúdos adicionais de modos online, não serão afetadas. Assim, a ideia de que "GTA 6" não será vendido no Brasil é enganosa: o jogo seguirá disponível no país, mas com mudanças pontuais na forma como algumas empresas operam seus serviços digitais. Monetização, exploração de menores e pedofilia: entenda denúncias feitas por Felca ECA Digital: sites pornôs seguem sem checar idade, e redes tentam adivinhar faixa etária Saiba como ativar proteção para controlar tempo e atividade de crianças no celular Medida afeta apenas loja do PC da Rockstar; jogo continuará disponível em outras plataformas e consoles no país g1 Veja também O que é #FATO e o que é #FAKE na guerra entre EUA e Irã O que é #FATO e o que é #FAKE na guerra entre Estados Unidos e Irã no Oriente Médio VÍDEOS: Os mais vistos agora no g1 Veja os vídeos que estão em alta no g1 VÍDEOS: Fato ou Fake explica VEJA outras checagens feitas pela equipe do FATO ou FAKE Adicione nosso número de WhatsApp +55 (21) 97305-9827 (após adicionar o número, mande uma saudação para ser inscrito)

Amazon planeja primeiro celular mais de 10 anos após tentativa frustrada com Fire Phone


Logo da Amazon, gigante da tecnologia. REUTERS/Dado Ruvic/Illustration/File Photo A Amazon está se preparando para lançar um novo celular, mais de 10 anos depois de anunciar um aparelho que foi considerado um de seus maiores fracassos, revelou nesta sexta-feira (20) a agência Reuters. O novo projeto é conhecido internamente como Transformer e está sendo desenvolvido pela unidade de dispositivos e serviços da Amazon, afirmaram à Reuters quatro fontes que pediram anonimato porque não estavam autorizadas a discutir assuntos internos. O telefone é visto como um potencial dispositivo de personalização móvel capaz de se sincronizar com a assistente de voz Alexa e servir como um canal de contato com os clientes da Amazon ao longo do dia, explicaram as fontes. Em 2014, a Amazon lançou seu primeiro smartphone, na esperança de enfrentar a Apple e a Samsung. Em vez disso, o Fire Phone – supervisionado diretamente pelo fundador Jeff Bezos – foi descartado em pouco mais de um ano. Jeff Bezos e o Fire Phone AP O projeto Transformer é o mais novo capítulo de um esforço de anos para levar ao mercado a visão de longa data de Bezos de um assistente de computação onipresente acionado por voz, semelhante ao computador controlado por voz da série de ficção científica "Star Trek". Bezos imaginou um smartphone com foco em compras e capacidade de competir com a Apple, oferecendo facilidades de entrega e descontos por meio da assinatura Prime. Com o aparelho, a Amazon poderia obter ainda mais dados sobre os usuários. As informações seriam combinadas com o histórico de compras e as preferências de conteúdo.  O esforço da Amazon para lançar um novo smartphone não foi relatado anteriormente. A Reuters não conseguiu determinar alguns detalhes, como o preço previsto do telefone, a receita projetada com o aparelho ou o investimento que a empresa está fazendo no projeto. O cronograma para o projeto Transformer da Amazon também não está claro, e as fontes advertiram que ele poderia ser descartado se a estratégia mudar ou devido a preocupações financeiras. Um porta-voz da Amazon não quis comentar sobre o caso. Os recursos de personalização do novo telefone facilitariam comprar no site da Amazon, assistir ao Prime Video, acessar o Prime Music ou pedir comida em serviços de delivery parceiros como o Grubhub, disseram as fontes. Um dos principais focos do Transformer é a integração de recursos de inteligência artificial no celular. Isso eliminaria a necessidade de lojas de aplicativos tradicionais, que exigem o download e o registro de aplicativos antes que eles possam ser usados. Amazon planeja voltar ao mercado de smartphones após mais de uma década do fracasso do Fire Phone

ECA Digital: ANPD diz que sistemas e lojas de aplicativos serão fiscalizados com maior rigor

O diretor da Autoridade Nacional de Proteção de Dados (ANPD), Iagê Miola, afirmou nesta sexta-feira (20) que sistemas operacionais e lojas de aplicativos de celulares serão fiscalizadas com maior rigor a partir da implementação do Estatuto Digital da Criança e do Adolescente, o chamado ECA Digital. Nesta sexta-feira (20), a ANPD publicou no "Diário Oficial da União" o cronograma com as etapas de instituição dos mecanismos de verificação de idade nas plataformas digitais. "Já começamos a fiscalizar a implantação do ECA Digital, tem agora caráter preventivo e de orientação para caminhos adequados. Lojas de aplicativo e sistema operacional vão ter um acompanhamento com maior proximidade", afirmou Miola. De acordo com o cronograma, o país está na primeira fase de implementação, que prevê: divulgação de orientações e esclarecimentos sobre o chamado ECA Digital; a implantação de sistemas operacionais para aferição de idade; Veja os vídeos que estão em alta no g1 A segunda etapa está prevista para começar em agosto deste ano e inclui: monitoramento da adoção das soluções de verificação de idade atualização dos regulamentos de fiscalização e aplicação de sanções. A partir de 2027, terá início a terceira fase, que marca a implementação completa das medidas, com a intensificação das ações de fiscalização. Monitoramento já está em curso, diz ANPD Em conversa com jornalistas, diretores da ANPD afirmaram que, embora o país ainda esteja na fase inicial do cronograma, a fiscalização já está em curso. Segundo eles, o monitoramento das empresas ocorre desde o ano passado, com o objetivo de compreender o funcionamento do setor. A partir de agora, essa atuação passa a ter novas frentes: acompanhar a adaptação às regras e, se necessário, realizar notificações. "A etapa 3 do cronograma, de fiscalização, marcará o início do mapeamento de temas prioritários, mas isso não quer dizer que só vamos verificar o cumprimento no ano que vem. Havendo uma violação explícita, vamos instaurar processo e atuar”, afirmou Iagê Miola. Lula assina decretos que regulamentam ECA Digital; veja principais pontos Atualmente, a fiscalização está concentrada na adaptação das empresas ao ECA Digital, com notificações de caráter preventivo e orientador. Ainda neste ano, a agência pretende concluir a regulamentação das possíveis sanções e dos critérios de dosimetria das penalidades. A partir daí, superado o período de adaptação, o descumprimento das normas poderá resultar na aplicação de punições. De acordo com os diretores da ANPD, já existe um parâmetro técnico com 11 requisitos que devem ser observados para a verificação da idade de crianças e adolescentes, medida que busca evitar fraudes e o uso de informações falsas para burlar as regras do ECA Digital. Esses mecanismos, segundo eles, serão aprimorados ao longo do tempo. Outro ponto em debate diz respeito aos custos da tecnologia necessária para garantir a segurança digital. Segundo a ANPD, o Ministério da Gestão e da Inovação em Serviços Públicos (MGI) avalia se o poder público terá condições de atuar como fornecedor dessas soluções. Ferramentas como o gov.br estão em análise e poderão, futuramente, ser disponibilizadas também ao setor privado.

CEO do Pinterest pede proibição de redes sociais para jovens menores de 16 anos


Pinterest Brett Jordan/Pexels O CEO do Pinterest, Bill Ready, defendeu nesta sexta-feira (20) que líderes globais proíbam o uso de redes sociais por jovens menores de 16 anos. A declaração foi feita em uma postagem no LinkedIn. Ready se manifestou enquanto ocorre, em Los Angeles, um julgamento sobre o impacto das redes sociais na vida de adolescentes. Google e Meta enfrentam acusações de que seus aplicativos contribuem para uma crise de saúde mental entre jovens. O júri está deliberando sobre o veredito. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 "Precisamos de um padrão claro: nada de redes sociais para adolescentes menores de 16 anos, respaldadas por uma aplicação real da lei e responsabilidade pelos sistemas operacionais de celulares e pelos aplicativos que rodam neles", escreveu Ready em um ensaio publicado em sua conta do LinkedIn. Pinterest é uma plataforma de compartilhamento de imagens. Ele citou como exemplo a legislação adotada na Austrália, que restringe o acesso de menores de 16 anos às plataformas. Procurado, o Pinterest não comentou a publicação. Ao defender a medida, Ready adota uma posição diferente da maioria dos líderes das grandes empresas de tecnologia, que enfrentam pressão crescente de reguladores, tribunais e legisladores para mudar a forma como crianças e adolescentes usam seus produtos, diante dos impactos na saúde mental. De acordo com o site da empresa, a idade mínima para criar uma conta no Pinterest nos Estados Unidos é de 13 anos. Nos últimos anos, a plataforma tem buscado se consolidar entre a geração Z — grupo que inclui pessoas nascidas entre 1997 e 2012. Segundo a empresa de análise Apptopia, cerca de um terço dos usuários do Pinterest tem entre 17 e 25 anos. Veja mais: O que países estão fazendo para regular o acesso de crianças às redes sociais Brasileiros contam como foi a proibição de redes sociais na Austrália

Posso falar da minha demissão nas redes? 'Vlogs' sobre desligamentos viralizam, mas exigem cuidados

'Vlog de demissão': vídeos de desligamentos viralizam, mas exigem cuidados Quem acessou as redes sociais nos últimos dias pr...