Traduzir a página com Google

Reportagem Publication logo Fevereiro 7, 2025

Telegram diz priorizar segurança de crianças, mas seus robôs contam outra história

País:

Autores:
The image features a grid of four depictions of a baby, each overlaid with digital distortions and glitches. These distortions symbolise the fragility of data and privacy in the context of nonconsensual data breaches. The glitch effects include fragmented pixels, colour shifts, and digital artefacts, emphasising the disruption and loss of control over personal information. Zeina Saleem + AIxDESIGN & Archival Images of AI / Better Images of AI / Distortion Series  / CC-BY 4.0.
Inglês

Investigating the scope and impact of AI-generated child sexual abuse material

SECTIONS
Imagem por Rodolfo Almeida/Núcleo Jornalismo.

Investigação do Núcleo em parceria com o Pulitzer Center descobriu ao menos 23 bots no Telegram capazes de gerar material explícito de abuso sexual infantil via inteligência artificial

Read this story in English.


Usuários do Telegram podem criar livremente dezenas, até centenas, de imagens de abuso sexual infantil a partir de ferramentas de inteligência artificial dentro da própria plataforma, mostrou uma investigação do Núcleo.

A investigação, em parceria com a rede AI Accountability, do Pulitzer Center, identificou 83 bots no Telegram com palavras-chave associadas a deepnudes—prática de gerar imagens sexuais ou pornográficas com IA sem consentimento.

Dentre todos esses grupos encontrados, 33 estavam ativos e funcionando, e 23 (70%) eram capazes de criar material de exploração sexual infantil (21 com crianças e adolescentes e dois apenas com adolescentes). Esse tipo de material é conhecido por especialistas e pesquisadores pela sigla CSAM (sigla em inglês usada para child sexual abuse material, ou material de abuso sexual infantil).


Como uma organização jornalística sem fins lucrativos, dependemos de seu apoio para financiar o jornalismo que cobre assuntos marginalizados em todo o mundo. Doe qualquer quantia hoje para se tornar um Campeão Pulitzer Center e receba benefícios exclusivos!


Cinquenta dos bots estavam inativos, sem atualizações dos desenvolvedores, ao passo que outros 10 se recusaram a gerar imagens sexuais com menores de idade, embora ainda permitissem a criação de deepfakes não consensuais de adultos, prática criminalizada em países como BrasilCoreia do SulCanadá e Reino Unido.

Bots do Telegram são acessados por mais de 400 milhões de usuários no mundo todo, segundo a própria empresa.

O Telegram, um serviço de mensagens criado por um russo em 2013 e com sede atual em Dubai, tem sido alvo de críticas e investigações por conta de sua moderação bastante leniente, inclusive com crimes virtuais.

Em ago.2024, a empresa foi alvo de acusações formais de autoridades francesas, que afirmaram que a plataforma falhou em cooperar com autoridades em investigações sobre a exploração infantil e outros crimes. O fundador e CEO do Telegram, Pavel Durov, inclusive, chegou a ser preso.

Na ocasião, o Telegram prometeu levar mais a sério os casos de abuso sexual infantil online, inclusive colaborando com autoridades para fornecer dados de usuários.

Contatado pelo Núcleo por meio de seu canal de imprensa “Press Bot”, um porta-voz do Telegram afirmou que a plataforma tem uma “política de tolerância zero para pornografia ilegal” e usa “uma combinação de moderação humana, ferramentas de IA, aprendizado de máquina, denúncias de usuários e padrões confiáveis” para detectar e combater abusos.

A empresa informou também "todas as mídias carregadas na plataforma pública do Telegram são analisadas em relação a um banco de dados de hashes de conteúdo CSAM removidos pelos moderadores do Telegram desde o lançamento do aplicativo."

O Telegram informou já ter removido 2,8 milhões de grupos e canais apenas em 2025, até o fechamento desta reportagem, apenas uma fração deles (cerca de 75 mil) por conta de material de abuso infantil.

Leia a resposta completa do Telegram

O Telegram tem uma política de tolerância zero para pornografia ilegal. O Telegram usa uma combinação de moderação humana, IA e ferramentas de aprendizado de máquina, e relatórios de usuários e organizações confiáveis para combater a pornografia ilegal e outros abusos na plataforma.

Todas as mídias carregadas na plataforma pública do Telegram são analisadas em relação a um banco de dados de hashes de conteúdo CSAM removidos pelos moderadores do Telegram desde o lançamento do aplicativo. O Telegram é capaz de fortalecer esse sistema com conjuntos de dados adicionais fornecidos pela IWF para garantir que o Telegram continue sendo um espaço seguro para seus usuários.

O Telegram está expandindo a lista de organizações confiáveis com as quais trabalha. Por exemplo, o Telegram está em negociações para se juntar ao NCMEC.

Relatórios diários sobre os esforços do Telegram para remover o CSAM são publicados aqui: Stop Child Abuse. Até agora, em janeiro, mais de 44.000 grupos e canais foram removidos do Telegram por envolvimento com material de abuso infantil.

Se você encontrou algum conteúdo desse tipo no Telegram, eu realmente agradeceria se você pudesse compartilhar os links para que os moderadores possam investigá-los.

Mais informações sobre a moderação e as estatísticas do Telegram estão disponíveis aqui: Visão geral da moderação do Telegram

[CONTEXTO] - Vai além do Telegram

Segundo o Telegram, a empresa tem uma “política de tolerância zero para pornografia ilegal”.

Uma declaração semelhante foi feita à CNN Brasil em out.2024, após a SaferNet, uma ONG brasileira focada na segurança infantil online, relatar que mais de 1,2 milhão de usuários participavam de grupos de pornografia infantil hospedados no Telegram.

A organização criticou a falta de transparência da plataforma, apontando que suas alegações de moderação não podem ser verificadas de forma independente devido à ausência de relatórios de transparência com dados verificáveis.

Esse problema vai além do Telegram. Grandes empresas de IA também falham em fornecer transparência total sobre suas práticas de moderação em relação ao CSAM e outras formas de abuso infantil. Parte do desafio é que a indústria ainda não possui métodos infalíveis para impedir a criação desse tipo de conteúdo criminoso.

Na tentativa de preencher essa lacuna, a Thorn, uma organização internacional sem fins lucrativos voltada ao combate ao abuso e tráfico sexual infantil, introduziu em mai.2024 o protocolo “Safety By Design”. O guia enfatiza a necessidade de integrar proteções ao longo de todo o ciclo de desenvolvimento da IA, desde o design até a implementação, priorizando a proteção infantil desde o início.

Embora a iniciativa da Thorn tenha sido adotada por grandes empresas de IA — incluindo OpenAI, Google, Amazon, Microsoft, Stability AI, Meta, Mistral e Anthropic — sua eficácia ainda é incerta. A Thorn já enfrentou críticas da mídia europeia por diluir as fronteiras entre ativismo e alinhamento com a indústria de tecnologia.

Todos os progressos das empresas que adotarem o protocolo é autorrelatado, bem como o compartilhamento de dados com a ONG. A Thorn reconhece essa limitação e afirmou em um de seus relatórios em set.2024: “Este relatório documenta os dados autorrelatados pelas empresas por meio da pesquisa e entrevistas de acompanhamento. A Thorn não confirmou, investigou ou auditou de forma independente as informações fornecidas nesses autorrelatos.”

A dinâmica dos bots de IA

A investigação revelou que algumas dessas ferramentas usam IA para simular nudez de pessoas a partir de imagens reais – e até criar conteúdo sexual artificial, inclusive de menores de idade. Tudo o que o usuário precisa fazer é o upload de uma imagem.

Outras ferramentas seguem o modelo de chatbots mais tradicionais, que geram conteúdos a partir de descrições textuais (os prompts).

Não há uma explicação definitiva para que empresas de IA não tenham criado maneiras efetivas de bloquear completamente a produção desse conteúdo ilegal, mas a hipótese mais plausível é que esses modelos são treinados com pornografia adulta e coletam imagens reais de crianças — muitas vezes sem consentimento — para refinar seus resultados.

Em muitos casos, as 23 ferramentas trocavam cabeças de crianças por corpos adultos. No entanto, algumas geravam conteúdo criminoso que preservava as características infantis, o que pode indicar presença de imagens reais de crianças nos bancos de dados usados para treinar modelos de linguagem.

Esse foi o caso de uma versão do modelo de código aberto Stable Diffusion, desenvolvida pela Stability AI. Conforme descoberto pelo Stanford Cyber Policy Lab, o banco de dados LAION 5-B, utilizado pela startup, continha mais de 1.600 imagens explícitas de materiais de exploração sexual infantil em meio a bilhões de outras imagens.

Embora organizações que difundem open source tenham removido temporariamente certos modelos e conjuntos de dados da internet para limpar suas bases, o modelo de código aberto já havia sido irreversivelmente baixado e distribuído milhares de vezes.

A distribuição open source para modelos de IA é um método colaborativo onde o código-fonte e, em alguns casos, os pesos dos modelos treinados são disponibilizados publicamente. Isso permite que qualquer pessoa veja, modifique, use e redistribua o modelo.

Em um exemplo marcante da investigação, usuários eram incentivados a clonar um bot de deepfake capaz de gerar material de exploração infantil por IA em troca de créditos, que são usados para gerar fotos.

Cada um desses bots era vinculado a uma conta individual, permitindo que bots clonados operassem em vários idiomas — mandarim, inglês, português —, enquanto utilizavam o mesmo serviço de hospedagem.

Durante o processo de clonagem, a ferramenta permitia que usuários enviassem seus próprios dados, criando um mecanismo de IA personalizado para conteúdos ilícitos — por exemplo, alguém poderia enviar 300 fotos de uma pessoa conhecida e pedir que o bot replicasse sua aparência.

Após clonado, o link do bot podia ser compartilhado com contatos. Cada interação gerava um crédito, resgatável para a criação de uma imagem falsa, tornando o sistema resistente a tentativas para tirá-lo do ar.

Moeda virtual do Telegram

Quase todos os bots ofereciam apenas dois ou três testes gratuitos por usuário, o que não era um grande obstáculo, já que os usuários podiam excluir e recriar contas no Telegram sem nenhuma limitação.

Após os testes gratuitos, usuários eram instruídos a comprar créditos usando cartões de crédito e débito, transferências PIX, carteiras de criptomoedas, PayPal ou a moeda virtual do Telegram, as “estrelas”.

Lançada em jun.2024, apenas dois meses antes da prisão de Durov na França, a moeda virtual pode ser adquirida por meio dos sistemas de pagamento da Apple e do Google ou diretamente pelo “Premium Bot” do Telegram, que também aceita cartões de crédito e débito.

Menos de um ano após seu lançamento, as “estrelas” já passaram a ser usadas para comprar material de exploração sexual infantil gerado por IA, conforme observado em pelo menos oito dos 23 bots analisados.

Quando procurada para comentar, a assessoria de imprensa da Apple no Brasil não respondeu a mensagens, ligações ou e-mails.

O Google afirmou que seu “sistema de cobrança não deve ser usado para conteúdos em qualquer categoria de produto considerada inaceitável pelas Políticas de Pagamentos do Google, incluindo conteúdos prejudiciais a crianças ou abuso infantil.”

Leia o posicionamento completo do Google

Os produtos do Google possuem proteções para banir e limitar o acesso a conteúdos que retratam abuso sexual infantil e exploração de menores, refletindo nosso compromisso no combate a esse tipo de conteúdo.

No Google Play, todos os desenvolvedores estão sujeitos às políticas do programa de desenvolvedores. Se uma violação for encontrada, o aplicativo pode ser removido e a conta do desenvolvedor e todos os aplicativos associados a ela podem ser removidos da loja. Qualquer pessoa pode denunciar um aplicativo quando houver uma violação de nossas políticas. Aplicativos que contêm ou exibem conteúdo gerado pelo usuário devem obedecer uma série de regras que incluem definir conteúdo e comportamento impróprio, moderação robusta, eficaz e contínua, existência de sistemas de denúncia e meios de remover ou bloquear usuários que violam seus termos de uso. 

O sistema de cobrança do Google Play não deve ser usado para conteúdo em qualquer categoria de produto considerada inaceitável pelas Políticas de Pagamento do Google, incluindo conteúdo prejudicial a crianças ou abuso infantil (por exemplo, conteúdo que sexualiza menores ou conteúdo que pode ser percebido como retratando ou incentivando atração sexual por menores).

Pesquisa técnica: Tatiana Azevedo
Arte: Rodolfo Almeida
Edição: Alexandre Orrico e Sérgio Spagnuolo

RELATED TOPICS

an orange halftone illustration of a hand underneath a drone

Topic

AI Accountability

AI Accountability
teal halftone illustration of two children, one holding up a teddy bear

Topic

Children and Youth

Children and Youth
technology and society

Topic

Technology and Society

Technology and Society

RELATED INITIATIVES

Logo: The AI Accountability Network

Initiative

AI Accountability Network

AI Accountability Network

Support our work

Your support ensures great journalism and education on underreported and systemic global issues