Tecnologia

Ex-funcionários revelam como TikTok e Meta sacrificaram segurança por engajamento

Documentário da BBC traz relatos internos sobre algoritmos ajustados para tolerar conteúdo nocivo na disputa por usuários
Logos de TikTok e Meta representando algoritmos que toleraram conteúdo nocivo em redes sociais

TikTok e Meta priorizaram engajamento mesmo quando pesquisas internas revelavam que seus algoritmos amplificavam conteúdo nocivo. A denúncia vem de mais de uma dúzia de ex-funcionários ouvidos pelo documentário Inside the Rage Machine, da BBC.

Um engenheiro da Meta relatou ter sido orientado a liberar conteúdo “limítrofe” — incluindo misoginia e teorias conspiratórias — para competir com o TikTok. Um funcionário da plataforma chinesa mostrou painéis internos que revelam como casos políticos eram priorizados sobre denúncias de riscos a menores.

A corrida do Reels e o custo ignorado da segurança

Em 2020, a Meta lançou o Instagram Reels como resposta direta ao crescimento do TikTok durante a pandemia. Segundo Matt Motyl, pesquisador sênior da empresa, a plataforma foi ao ar sem proteções suficientes. Dados internos mostram que comentários no Reels tinham 75% mais bullying e assédio, 19% mais discurso de ódio e 7% mais incitação à violência do que em outras áreas do Instagram.

Documentos compartilhados com a BBC apontam que o próprio Facebook sabia que seu algoritmo oferecia aos criadores um “caminho que maximiza lucros às custas do bem-estar de sua audiência”. O texto interno admite que os incentivos financeiros criados pelos algoritmos “não parecem estar alinhados” com a missão declarada da empresa.

Um ex-engenheiro identificado como Tim disse que a decisão de relaxar filtros contra conteúdo nocivo foi tomada por um vice-presidente sênior que respondia diretamente a Mark Zuckerberg. “Você está perdendo para o TikTok e o preço das ações estava caindo. Precisamos fazer tudo para recuperar o atraso”, descreveu ele o raciocínio da direção.

TikTok priorizou políticos, não crianças

No TikTok, o denunciante chamado de Nick pela BBC mostrou evidências de que a equipe de segurança era orientada a tratar casos políticos como prioridade máxima — acima de denúncias de cyberbullying e conteúdo sexual envolvendo adolescentes. Em um dos exemplos, um político ridicularizado recebeu atenção antes de uma jovem de 16 anos no Iraque que denunciou imagens sexualizadas suas sendo circuladas no app.

A moderação reativa do TikTok já foi documentada no Brasil: a plataforma só removeu vídeos de uma trend que simulava violência contra mulheres depois de reportagens e investigação da Polícia Federal — e mesmo assim manteve ativos os perfis dos criadores.

Um adolescente identificado como Calum, hoje com 19 anos, disse ter sido “radicalizado pelo algoritmo” desde os 14. Exposto progressivamente a conteúdo que provocava indignação, ele adotou visões racistas e misóginas — um caso que especialistas descrevem como padrão, não exceção.

Negativas das empresas e pressão crescente por regulação

A Meta negou as acusações: “Qualquer sugestão de que ampliamos deliberadamente conteúdo nocivo para ganho financeiro é incorreta.” O TikTok chamou os relatos de “alegações fabricadas” e afirmou investir em tecnologia para impedir a exibição de conteúdo prejudicial.

Especialistas da polícia antiterrorismo do Reino Unido, que analisam milhares de publicações por ano, relataram à BBC um aumento e uma “normalização” de posts antissemitas, racistas e de extrema direita nos últimos meses. “As pessoas estão mais dessensibilizadas à violência no mundo real e não têm medo de compartilhar suas opiniões”, disse um dos agentes.

A pressão regulatória cresce em diferentes frentes. O CEO do Pinterest tomou posição pública favorável a uma proibição global de redes sociais para menores de 16 anos, colocando-se em rota de colisão com a maioria das big techs. No Brasil, o cenário mudou com o ECA Digital: Google e Meta foram obrigadas a detalhar seus mecanismos de verificação de idade assim que a lei entrou em vigor, prevendo multas de até R$ 50 milhões para plataformas que descumprirem as regras.

Como resposta às críticas, a Meta anunciou o recurso Teen Accounts — com proteções automáticas para adolescentes —, enquanto o TikTok afirma ter mais de 50 configurações de segurança pré-definidas para contas de menores. Os denunciantes, porém, são categóricos: a realidade do que os apps recomendam é “muito diferente, em muitos aspectos, do que as plataformas dizem ao público”.

escrito com o apoio da inteligência artificial
este texto foi gerado por IA sob curadoria da equipe do Tropiquim.
todos os fatos foram verificados com rigor.
Leia mais

FDA libera versão mais potente do Wegovy para tratar obesidade

Ex-funcionários revelam como TikTok e Meta sacrificaram segurança por engajamento

Lula vai à Celac buscar escudo regional contra pressão de Trump

Anvisa tem 17 pedidos de semaglutida na fila após queda de patente; veja o que muda