Traduzir a página com Google

Reportagem Publication logo Abril 2, 2025

Esquema no Instagram espalha imagens de exploração sexual infantil feitas por IA

Autores:
The image features a grid of four depictions of a baby, each overlaid with digital distortions and glitches. These distortions symbolise the fragility of data and privacy in the context of nonconsensual data breaches. The glitch effects include fragmented pixels, colour shifts, and digital artefacts, emphasising the disruption and loss of control over personal information. Zeina Saleem + AIxDESIGN & Archival Images of AI / Better Images of AI / Distortion Series  / CC-BY 4.0.
Inglês

Investigating the scope and impact of AI-generated child sexual abuse material

SECTIONS

Ilustração por Rodolfo Almeida/Núcleo.

Read this report in English.

Investigação do Núcleo identificou perfis com comportamento ilegal que os sistemas de segurança da Meta foram incapazes de identificar


No Instagram, ao menos uma dúzia de perfis com centenas de milhares de seguidores compartilhavam livremente imagens geradas por inteligência artificial que retratavam crianças e adolescentes em imagens sexualizadas, um comportamento ilegal que os sistemas de segurança da Meta foram incapazes de identificar.

Em jan.2025, o CEO da Meta, Mark Zuckerberg, anunciou que a empresa flexibilizaria algumas de suas políticas de moderação de conteúdo nos Estados Unidos, a fim de compensar os “muitos erros e muita censura” que outros agentes cometeram na plataforma (notadamente governos e a imprensa).

O Núcleo iniciou, então, uma investigação em parceria com a AI Accountability Network, do Pulitzer Center, para avaliar o impacto da medida na disseminação de material ilegal envolvendo crianças e adolescentes, e conseguiu identificar 14 perfis no Instagram que publicavam imagens perturbadoras de menores geradas por inteligência artificial.


Como uma organização jornalística sem fins lucrativos, dependemos de seu apoio para financiar o jornalismo que cobre assuntos marginalizados em todo o mundo. Doe qualquer quantia hoje para se tornar um Campeão Pulitzer Center e receba benefícios exclusivos!


Todos seguiam um padrão visual recorrente: personagens loiras, com corpos voluptuosos e seios fartos, olhos azuis e rostos infantis.

Essas figuras eram retratadas em diferentes contextos sexualizados: de biquínis, lingeries ou vestidos com decote. Mas não se tratava de “modelos adultas”, e sim de representações de adolescentes e até crianças. Cada conta analisada pela investigação mantinha o mesmo tema visual, incluindo a cor dos olhos, tom de pele, cabelo e feições infantis semelhantes.


Vídeo gentilmente cedida por Núcleo.

A reportagem não pôde confirmar se esses conteúdos foram criados com o objetivo de emular uma adolescente que existe no mundo real, nem se essas páginas pertenciam aos mesmos donos ou grupos.

Embora o Brasil ainda não tenha uma legislação específica sobre IA, conteúdos que sexualizam crianças e adolescentes vêm sendo enquadrados como violação do Estatuto da Criança e do Adolescente (ECA), especialmente nas partes que tratam da produção e do armazenamento de imagens de exploração sexual infantil.

O Reino Unido é um dos poucos países do mundo com uma lei específica para esse tipo de crime. Aprovada em fev.2025, o texto proíbe tanto a criação de conteúdo como a elaboração de guias ou diretrizes envolvendo abuso infantil associado a IA generativa.

Além do Insta

O comportamento criminoso não se limitou ao Instagram. Em quase todos os perfis analisados, usuários eram direcionados a plataformas de conteúdo por assinatura, como Patreon e Fanvue, onde poderiam adquirir material personalizado.

No caso específico de dois perfis, seguidores foram redirecionados para grupos no WhatsApp ou Telegram, onde, além de dicas para a criação de imagens ilícitas geradas por IA, também eram compartilhados links para pastas contendo material real de abuso sexual infantil.

O conteúdo de abuso infantil gerado por inteligência artificial não é menos grave por ser artificial, alertou ao Núcleo Dan Sexton, diretor de tecnologia da Internet Watch Foundation (IWF), organização britânica referência no tema.

“Essas imagens, como as reais de abuso sexual infantil, podem normalizar e enraizar o abuso de crianças. Esse conteúdo horrível não está restrito à dark web; já recebemos relatos de pessoas que o encontraram na web aberta. É extremamente perturbador e prejudicial.”

Caso você encontre conteúdos que violem os direitos de crianças e adolescentes, denuncie na Central de Crimes Cibernéticos da SaferNet Brasil ou ligue no Disque 100, do Ministério dos Direitos Humanos.

Moderação tardia

Após o contato da reportagem com a Meta em meados de março, 12 dos 14 perfis identificados foram removidos. Ao Núcleo, a Meta declarou ter “regras rígidas contra a sexualização infantil — tanto real quanto gerada por Inteligência Artificial — e removemos as contas compartilhadas conosco até o momento por violarem essas diretrizes”.

Nenhuma das perguntas específicas sobre moderação e detecção de conteúdo ofensivo foi respondida.

Meta: perguntas e respostas

Leia as perguntas que fizemos à Meta:

  • A Meta possui políticas específicas para combater a disseminação de materiais de abuso sexual infantil gerados por IA em sua plataforma?
  • Os sistemas de detecção automática por impressão digital da Meta, voltados ao combate da exploração sexual infantil, são capazes de identificar imagens geradas por IA?
  • Como o WhatsApp lida com o combate à exploração sexual infantil em grupos, sem comprometer a privacidade e a criptografia de ponta a ponta?

Leia a resposta completa da Meta:

Na Meta, temos regras rígidas contra sexualização infantil - tanto real quanto gerada por Inteligência Artificial -, e removemos as contas compartilhadas conosco até o momento por violarem essas regras. Assim como no caso de sexualização explícita, também removemos contas de Instagram dedicadas a compartilhar imagens inofensivas de crianças, reais ou geradas por IA, acompanhadas de legendas ou comentários sobre sua aparência. O WhatsApp também tem tolerância zero com exploração sexual infantil e abuso, e banimos usuários quando nos tornamos cientes de que eles estão compartilhando conteúdos que exploram ou colocam crianças em perigo. O WhatsApp conta com informações não criptografadas disponíveis, incluindo denúncias de usuários, para detectar e prevenir esse tipo de abuso, e estamos constantemente aprimorando nossa tecnologia de detecção.

Patreon e Fanvue

Os criadores desses conteúdos criminosos desenvolveram uma estratégia para contornar a moderação do Instagram e lucrar com a prática: a criação de múltiplos perfis com personagens híbridos—combinações de rostos infantis com corpos mais adultos—associados a páginas em plataformas de conteúdo por assinatura.

Durante a investigação, o Núcleo identificou dois perfis no Patreon e um no Fanvue, uma plataforma de conteúdo por assinatura menos conhecida, ligados a contas do Instagram que produziam e distribuíam mídias de sexualização infantil geradas por IA.

Essas contas ofereciam acesso a conteúdos exclusivos por assinatura, além da produção de “mídias especiais”, e eram amplamente promovidas pelas 14 contas do Instagram analisadas.

Após ser contatado, o Patreon removeu todos os perfis associados a esse material.

“Temos uma política de tolerância zero para obras que apresentem material de abuso sexual infantil (CSAM), real ou animado, ou outras formas de exploração que retratem menores sexualizados. Se as características físicas representadas em um trabalho não forem inequivocamente percebidas como sendo de adultos, isso será considerado uma violação de nossas políticas”, declarou um porta-voz da empresa à reportagem.

O Fanvue, no entanto, não respondeu às múltiplas tentativas de contato. Em 2024, a plataforma foi citada em um relatório da Alliance to Counter Crime Online (ACCO), que destacou como a empresa facilita a comercialização de material explícito gerado por IA. O documento também recomendou que o Instagram adotasse uma abordagem mais rigorosa na fiscalização de perfis que vinculam a Fanvue em suas biografias.

"Zona Cinzenta" — como membros de um grupo ilegal reagem à derrubada de conteúdo

Embora a Meta tenha excluído diversos conteúdos após ser contatada pela assessoria, um grupo de WhatsApp vinculado a uma das contas do Instagram monitoradas na investigação permaneceu ativo.

Com mais de 150 membros, o grupo foi, de fato, apagado somente depois que o Núcleo entrou em contato com o administrador, questionando sobre os materiais ilegais compartilhados ali.

Os repórteres acessaram o grupo por meio de um site associado ao perfil no Instagram – todos os históricos de conversa foram baixados e analisados. Dentro do grupo, os envolvidos na criação, distribuição e até na comercialização dessas imagens demonstraram plena consciência da natureza ilegal do material.

Quando o Instagram removeu a conta vinculada a este grupo de WhatsApp, seus membros começaram a se perguntar se os conteúdos gerados por IA poderiam ser considerados “inofensivos”. “O IG só verifica se alguém denuncia e depois uma IA aleatória e mal calibrada examina o conteúdo. Total aleatoriedade”, reclamou um usuário com número de telefone da Bélgica.

Outro, dos Estados Unidos, acrescentou: “Tudo isso acontece enquanto os verdadeiros exploradores de crianças escapam… interessante.” No dia seguinte, um usuário da República Tcheca levantou a questão sobre o que havia de errado em “ventilar” sua “excentricidade” se isso não prejudicasse ninguém.

“Talvez eles prefiram ter crianças vítimas reais do que nossa 'zona cinzenta'… o que não faz sentido para mim”, respondeu outro membro.

Em um momento, após a divulgação de uma imagem perturbadora de uma adolescente gerada por IA, um membro questionou como criar uma conta no Instagram sem vinculá-la às já existentes.

“Não quero que ninguém da minha vida real saiba que faço isso”, escreveu outro, expressando receio de que o Instagram notificasse seus contatos ao associar a nova conta ao seu número de telefone. Logo em seguida, o administrador disse que “não saberia” o que sua esposa diria se visse a “sua foto”, e a descreve: “uma menina adolescente colocando um ovo em sua vagina”.

Após deixarem o WhatsApp, membros do grupo citado nesta reportagem estão no Telegram. O aplicativo de mensagens russo tem sido amplamente utilizado por criminosos para hospedar bots e canais dedicados ao compartilhamento e geração de imagens de abuso sexual infantil por IA, como documentado em investigações anteriores do Núcleo.

Políticas de moderação da Meta

As políticas da Meta proíbem a produção e o compartilhamento de conteúdo que “sexualize crianças”, incluindo imagens geradas artificialmente.

Como outras grandes empresas de tecnologia, a companhia utiliza sistemas automatizados para detectar violações graves, como exploração sexual infantil virtual. Um dos principais métodos empregados é o hashing de imagens, que cria “impressões digitais” únicas para arquivos previamente identificados como material de abuso infantil, permitindo que ferramentas de IA os reconheçam rapidamente.

Mas relatórios de organizações como Active Fence e We Protect Global Alliance destacam que essa tecnologia enfrenta limitações diante de conteúdos gerados por IA, uma vez que essas imagens podem ser alteradas e não corresponder às impressões digitais originais.

Pesquisadores, como Carolina Christofoletti, da Universidade de São Paulo (USP), apontam que criminosos experientes exploram lacunas técnicas na geração desse material. Para contornar essas falhas, especialistas estudam novos métodos de detecção.

“Por definição, não é possível identificar automaticamente imagens geradas por IA, porque elas são sempre novas”, explica Christofoletti.

Ela ressalta que o desafio central está no uso de classificadores — algoritmos que categorizam dados com base em padrões. Treinar esses sistemas, porém, exige acesso a bases de imagens ilegais, algo restrito a poucas instituições no mundo.

Uma das abordagens estudadas é o uso da biometria. “Se você observar o rosto de uma criança, as proporções são específicas. Os olhos são mais redondos, o rosto é menor e as feições são mais próximas umas das outras”, explica a pesquisadora.

Esse princípio poderia ser aplicado ao desenvolvimento de sistemas de reconhecimento capazes de identificar características infantis e sinais de sexualização em imagens geradas por IA.

“O que é mais eficiente? Tentar mapear todas as imagens criadas por IA ou detectar rostos infantis e elementos de sexualização nelas?”, questiona Christofoletti. “Talvez o caminho mais promissor seja o reconhecimento facial ou a identificação de padrões que indicam a manipulação do corpo infantil.”

Como fizemos isso

Passamos a investigar um perfil no Instagram por encontrarmos um site que hospedava material de abuso infantil gerado por IA. Em seguida, achamos novas contas, adicionadas ao mapeamento, bem como os links externos para o Patreon, Fanvue, WhatsApp e Telegram. Baixamos os históricos de conversas dos participantes e analisamos as conversas no Google Spreadsheets. Em seguida, enviamos email para as plataformas e entrevistamos os especialistas.


Reportagem: Sofia Schurig e Leonardo Coelho
Pesquisa técnica: Tatiana Azevedo
Arte: Rodolfo Almeida
Edição: Sérgio Spagnuolo

RELATED TOPICS

an orange halftone illustration of a hand underneath a drone

Topic

AI Accountability

AI Accountability
teal halftone illustration of two children, one holding up a teddy bear

Topic

Children and Youth

Children and Youth
technology and society

Topic

Technology and Society

Technology and Society

RELATED INITIATIVES

Logo: The AI Accountability Network

Initiative

AI Accountability Network

AI Accountability Network

Support our work

Your support ensures great journalism and education on underreported and systemic global issues