
Aplicativo SeaArt tem mais de 1 milhão de downloads na Play Store e permite que usuários criem imagens feitas por inteligência artificial com conteúdo que sexualiza crianças
O SeaArt, popular aplicativo com mais de 1 milhão de downloads na Google Play Store, permite que qualquer pessoa produza e distribua imagens contendo abuso sexual infantil geradas com inteligência artificial, de acordo com investigação do Núcleo em parceria com a AI Accountability Network, do Pulitzer Center.
Além de vender assinaturas, a plataforma – controlada pela chinesa Haiyi Interactive Entertainment – permite a criação gratuita desse tipo de imagem em troca da visualização de anúncios veiculados por grandes empresas multinacionais.
É importante porque ...
Plataformas de inteligência artificial e empresas de tecnologia precisam fiscalizar e se responsabilizar por conteúdo artificial criminoso, cada vez mais fácil e acessível de fazer
Como uma organização jornalística sem fins lucrativos, dependemos de seu apoio para financiar o jornalismo que cobre assuntos marginalizados em todo o mundo. Doe qualquer quantia hoje para se tornar um Campeão Pulitzer Center e receba benefícios exclusivos!
O SeaArt já ultrapassou 1 milhão de downloads na Play Store e tem classificação indicativa para maiores de 14 anos. No Brasil, a exploração, o abuso e a sexualização de menores de 18 anos, inclusive em mídias artificiais, violam o Estatuto da Criança e do Adolescente.
"Como operador da plataforma, estipulamos claramente em nossos Termos de Serviço que os usuários devem cumprir as leis e regulamentos e abster-se de se envolver em atividades que infrinjam os direitos e interesses legítimo de terceiros", disse a equipe jurídica do SeaArt ao Núcleo.
A empresa, no entanto, não respondeu a perguntas específicas da reportagem (mais detalhes abaixo).
O Google não respondeu a pedidos de comentários.
Crescimento de buscas
Esse fenômeno de conteúdo que explora crianças não se restringe a uma única plataforma.
Pesquisas por “pornografia de IA” no Google — o buscador mais usado no mundo — dispararam nos últimos três anos. Entre os milhares de resultados, há sites que produzem não só imagens de abuso infantil, mas também deepfakes de pornografia de vingança (revenge porn) e montagens envolvendo políticos.
O interesse súbito a partir de 2022 coincide com o lançamento de novos modelos de inteligência artificial generativa de código aberto — sistemas que podem ser modificados e operados diretamente pelos usuários em suas máquinas. Em outubro daquele ano, a Stability AI lançou o Stable Diffusion 1.5, treinado com bilhões de imagens, incluindo material real de abuso infantil.
Modelos com diferentes variações do Stable Diffusion e o Flux, da Black Forest Labs, estão entre as opções oferecidas pela SeaArt, que disponibiliza um catálogo vasto para geração de imagens.
Na página de modelos disponíveis, as imagens em destaque são quase sempre de mulheres artificiais — em estilo realista ou animado — seminuas. Elas aparecem agrupadas em categorias como “realismo”, “NSFW” (sigla para conteúdo adulto) e fetiches como “asiáticas peitudas” e “thinspo”, termo em inglês que exalta a magreza extrema e circula em comunidades que romantizam transtornos alimentares online.

Esses modelos podem ser modificados livremente pelos próprios usuários e republicados no SeaArt. À primeira vista, muitos não apresentam sinais evidentes de uso criminoso.
Um dos modelos identificados pela reportagem, por exemplo, era descrito como dedicado à criação de imagens de furries — fetiche relacionado a personagens antropomórficos com traços humanos e animais. No entanto, esse mesmo modelo foi usado para gerar dezenas de imagens de abuso infantil.
A plataforma também permite a criação e o compartilhamento de LoRAs, pequenas extensões de modelos de IA treinadas em conjuntos de dados específicos.
O Núcleo já explicou essa tecnologia em reportagem anterior, mostrando como usuários de fóruns na dark web utilizam fotos reais de crianças para treinar modelos voltados exclusivamente à produção de mídias de exploração e abuso sexual infantil com inteligência artificial.
Levantamento
Foi nesse ambiente digital que a investigação catalogou 60 publicações no SeaArt contendo imagens de abuso sexual infantil geradas por IA.
O número não reflete a totalidade do conteúdo: em determinado ponto, a reportagem passou a encontrar tantas postagens que decidiu encerrar a contagem para avançar com a apuração.
Para compor o levantamento, foram selecionados conteúdos com cenas explícitas de sexo entre menores e maiores de idade ou prompts e descrições que sexualizam crianças e adolescentes. Apenas pesquisar por números leva usuários a fotografias de crianças usando lingerie ou biquínis em poses sexualizadas.

O problema atingiu um nível tão grotesco que, no final de abr.2025, os próprios administradores do servidor oficial do Discord da SeaArt — com mais de 200 mil usuários — criaram um canal específico para denúncias de conteúdo de abuso infantil.
"Convidamos todos os usuários a participar ativamente do monitoramento da comunidade. Se você encontrar algum conteúdo suspeito de PC, envie o ID do usuário aqui (não publique links diretos para o conteúdo violador). Incentivamos todos os usuários a ajudar a construir uma comunidade saudável e harmoniosa - suas denúncias são vitais!", escreveu um moderador do servidor.
Mas esse tipo de conteúdo continuou por lá.

Marketing digital pra abuso infantil
Essas mídias não aparecem na página inicial, mas foram encontradas após buscas específicas na plataforma. Essa “moderação de fachada”, restrita às áreas mais visíveis, parece servir para manter a aparência de segurança e agradar anunciantes — enquanto o conteúdo ilegal permanece acessível para quem sabe o que procurar.
Além disso, o SeaArt oferece planos pagos que variam de R$ 18 a R$ 280 mensais, mas não depende exclusivamente das assinaturas para se sustentar, já que muitos usuários utilizam o serviço gratuitamente. No plano gratuito é possível gerar até 4.500 imagens por mês, enquanto o plano mais caro permite a criação de mais de 105 mil imagens mensais.
Para os usuários que não pagam, a plataforma oferece a possibilidade de ganhar créditos cumprindo tarefas ou assistindo a anúncios — o que implica que marcas anunciantes podem estar, mesmo que indiretamente, financiando a circulação de conteúdo criminoso por meio dessa publicidade.
Esse modelo de negócio, aliado à moderação superficial, sustenta a infraestrutura que permite a circulação em grande volume desse conteúdo ilegal.
É também possível ganhar moedas no próprio servidor do Discord do SeaArt. Fazendo um check-in diário, você ganha "conchas", que depois podem ser trocados por créditos na plataforma.

Em nossa investigação, o Núcleo identificou mais de mil revendedores de anúncios vinculados ao SeaArt. Apenas uma empresa aparece como anunciante direto: a StarFortune Interactive Entertainment Technology Co, sediada em Hong Kong.
Mas há outras empresas que mantêm vínculo direto com o SeaArt, auxiliando a plataforma de IA a monetizar seus conteúdos, atrair visitantes e ampliar seus lucros: a AppLovin e a AnyManager. Esta última, inclusive, aparece registrada como “gerente” do domínio do SeaArt — o que significa que exerce funções de administração técnica e comercial do site, intermediando negócios, anúncios e serviços de forma oficial e direta.
A AppLovin, fundada na Califórnia em 2012 e listada na bolsa americana, é especializada em soluções de monetização para aplicativos, obtendo parte de seus lucros com a veiculação de anúncios.
Ela é tão grande atualmente que até mesmo o Google tem medo da sua influência no mercado digital, apontou uma reportagem do The Information. Em 2020, 49% de sua receita veio de empresas que utilizam seu software, e o restante, de compras feitas por usuários em aplicativos operados pelo próprio grupo.
A empresa adota publicamente uma política que veda anúncios de conteúdo sexualmente explícito ou adulto, especialmente envolvendo menores, e afirma não coletar dados pessoais de crianças nem direcionar publicidade a esse público.
A AnyManager, por sua vez, integra o grupo japonês AnyMind — sediado oficialmente no Japão, mas com endereços no paraíso fiscal Singapura — e atua nos setores de publicidade digital, e-commerce e análise de dados. Como gestora do domínio do SeaArt, a AnyManager é responsável por hospedar, manter e administrar tecnicamente a plataforma, incluindo a intermediação e exibição dos anúncios.
Quem manda (e lucra) nos bastidores
Ao examinar o domínio chinês do SeaArt, a reportagem identificou o número de registro empresarial e o nome da controladora Haiyi em mandarim — ausentes na versão internacional do site. Esses registros apontam que a plataforma pertence à Haiyi Interactive Entertainment, sediada em Chengdu, no sudoeste da China, dedicada ao desenvolvimento de jogos, aplicativos e softwares.
Essas informações, contudo, não aparecem na versão internacional do site do SeaArt, nem são citadas nas políticas de privacidade ou nos termos de uso. Estes, inclusive, proíbem explicitamente o envio de conteúdo “difamatório, obsceno, pornográfico, vulgar, pedofílico ou ofensivo” por parte dos usuários.
Outras fontes públicas também associam a plataforma à empresa chinesa. Um post no blog da Amazon Web Services (AWS) da China, por exemplo, destacou que a parceria entre a big tech americana e a plataforma resultou em uma economia de cerca de 60% nos custos, graças à infraestrutura em nuvem e à otimização de processos, além de melhorias na segurança e na qualidade do conteúdo gerado.
Na Biblioteca de Anúncios da Meta — que reúne dados de Instagram, Facebook e Messenger — outra empresa apareceu promovendo o SeaArt: a StarUnion, também sediada em Chengdu e desenvolvedora de jogos com mais de 50 milhões de downloads na Play Store.
Graças às regras da União Europeia, que obrigam plataformas digitais a divulgar informações sobre anúncios pagos, a apuração localizou pouco mais de trinta campanhas do SeaArt veiculadas no Facebook e Instagram, todas financiadas pela StarUnion.

O site da StarUnion, por sua vez, não disponibiliza e-mail de contato para a imprensa. A única forma de contato localizada, após uma varredura no domínio da empresa, foi um endereço destinado a questões legais.
Ao tentar estabelecer comunicação e questionar a possível relação entre a StarUnion e o SeaArt, a reportagem recebeu uma notificação do Gmail informando que o servidor da empresa não estava recebendo mensagens.
Outros lados
À reportagem, um porta-voz da Amazon Web Services disse que a empresa tem o compromisso de evitar material de abuso sexual infantil em todos os segmentos dos seus negócios e que a "AWS mantém termos de serviço rigorosos que proíbem claramente atividades ilegais".
"Quando recebemos denúncias de possíveis violações de nossos termos, agimos rapidamente para analisar e tomar medidas para desativar o conteúdo proibido", disse a AWS.
Nem o SeaArt nem a AWS responderam as perguntas específicas enviadas pela reportagem.
A AppLovin, AnyManager, StarUnion não nos responderam até o prazo de publicação desta reportagem.
Contatado sobre seu vínculo como anunciante por meio do Google Ads, o Google não respondeu.
Reportagem Sofia Schurig e Leonardo Coelho
Pesquisa técnica Tatiana Azevedo
Arte e gráficos Rodolfo Almeida
Edição Alexandre Orrico e Sérgio Spagnuolo