Uma jovem adulta que apareceu em centenas de imagens e vídeos de abuso sexual infantil foi finalmente identificada por pesquisadores da Internet Watch Foundation (IWF) após anos de buscas. O diferencial desta vez foi o uniforme escolar visível em uma das fotografias.
A analista Mabel reconheceu o rosto da menina — que tinha cerca de 13 anos quando foi aliciada — em janeiro deste ano, ao analisar um novo lote de imagens. Ela deu zoom no blazer e conseguiu localizar a escola pelo emblema, informando a polícia.
A polícia contatou a instituição, que auxiliou na identificação da vítima. A jovem nunca havia denunciado o aliciamento nem o abuso. Quando soube do trabalho de remoção do material, expressou alívio.
Este caso é considerado uma exceção no trabalho da IWF, organização britânica que usa denúncias do público e buscas próprias para encontrar e remover material de abuso sexual infantil da internet. Segundo Mabel, a analista que identificou a jovem, o rosto dela apareceu tantas vezes ao longo dos anos que ela “simplesmente ficou gravada na minha cabeça”.
Como funcionou o aliciamento
A criança foi aliciada por meio de videochamadas e mensagens de texto para criar conteúdo de si mesma — alguns na categoria mais extrema desse tipo de abuso. Os investigadores viram a menina pela primeira vez em 2020, mas na época não tinham como rastreá-la.
O papel da inteligência artificial
Identificar vítimas dessa forma é extremamente difícil e ficou ainda mais complexo com a introdução de conteúdo gerado por IA de crianças que não existem. Essa tecnologia dificulta o trabalho de analistas que tentam localizar vítimas reais.
Contexto brasileiro
O caso britânico ocorre em um momento de atenção redobrada ao tema no Brasil. Em 2025, a Polícia Federal realizou mais de 3 operações por dia contra abuso sexual infantil na internet. Na mesma semana em que a jovem foi identificada, o ECA Digital entrou em vigor no país, criando novas obrigações para plataformas digitais.
Números alarmantes
Na terça-feira, a Sociedade Nacional para a Prevenção da Crueldade contra Crianças (NSPCC) revelou que quase 37 mil crimes de abuso sexual infantil com imagens foram registrados pelas forças policiais em todo o Reino Unido em 2025.
Pedido às techs
A organização está pedindo às empresas de tecnologia que aumentem as medidas de segurança que impedem que imagens de nudez sejam tiradas por e compartilhadas em dispositivos de crianças.
