Traduzir a página com Google

Reportagem Publication logo Dezembro 5, 2024

Nova proposta de regulação de IA no Senado compromete proteções contra conteúdo de abuso infantil

País:

Autores:
The image features a grid of four depictions of a baby, each overlaid with digital distortions and glitches. These distortions symbolise the fragility of data and privacy in the context of nonconsensual data breaches. The glitch effects include fragmented pixels, colour shifts, and digital artefacts, emphasising the disruption and loss of control over personal information. Zeina Saleem + AIxDESIGN & Archival Images of AI / Better Images of AI / Distortion Series  / CC-BY 4.0.
Inglês

Investigating the scope and impact of AI-generated child sexual abuse material

SECTIONS

Ilustração por Rodolfo Almeida/Núcleo.

Read this story in English here.

Lobby de Big Tech remodelou os esforços de legislação de IA do Brasil, removendo salvaguardas anteriormente propostas contra modelos de IA de alto risco que poderiam gerar conteúdo de exploração envolvendo crianças


Nas mais recentes deliberações de um projeto de lei com potencial de estabelecer a primeira regulamentação da inteligência artificial no Brasil, senadores decidiram aliviar restrições sobre sistemas de IA de alto risco, incluindo aqueles capazes de produzir materiais contendo abuso sexual infantil, cedendo a pressões do lobby de Big Techs sobre o assunto.

O projeto de lei 2.338/23 em discussão no Senado, que se encontra na Comissão Temporária Interna sobre Inteligência Artificial (CTIA), inicialmente se espelhou no modelo da União Europeia, sugerindo critérios rigorosos para classificar modelos considerados de alto risco.

Projeto de Lei 2.338/23 que estabelece normas para o “desenho, desenvolvimento, implementação, uso, adoção e governança responsável” da IA no Brasil.

A versão mais recente apresentada, porém, inclina-se para a autorregulação, algo defendido por empresas de tecnologia, que argumentaram que leis mais rígidas poderiam sufocar a inovação no país, de acordo com várias fontes ouvidas pelo Núcleo.


Como uma organização jornalística sem fins lucrativos, dependemos de seu apoio para financiar o jornalismo que cobre assuntos marginalizados em todo o mundo. Doe qualquer quantia hoje para se tornar um Campeão Pulitzer Center e receba benefícios exclusivos!


A comissão prorrogou o prazo para conclusão da votação cinco vezes desde mai.2024, optando por revisar a ampla proibição inicial sobre sistemas de IA de alto risco na última terça-feira (3.dez.2024).

A saga da regulação de IA

Idas e vindas da do PL 2.338 para regular inteligência artificial no Brasil

O projeto de lei 2.338/23, ou PL da IA, está em deliberação no Senado para regular a inteligência artificial. Ele é o projeto mais avançado no Congresso sobre o tema, e tem sido debatido na Comissão Temporária de Inteligência Artificial (CTIA) desde ago.2023, sob a relatoria do senador Eduardo Gomes (PL-TO).

A CTIA promove audiências públicas com o setor privado, a sociedade civil e o governo. O relator já apresentou um relatório preliminar e duas sugestões de projetos de lei, que ainda não foram votados.

A votação tem sido adiada devido a críticas do setor privado e de parlamentares da oposição, que acusam a proposta de ser uma forma de o governo regular as redes sociais no Brasil.

Mudança de versões

Na versão anterior, o texto do projeto proibia diversos modelos de alto risco, incluindo aqueles que poderiam “produzir, disseminar ou facilitar” a criação de materiais de exploração sexual infantil, e classificava todas as aplicações de IA na internet como de alto risco. Ambas as disposições foram alteradas.

Como já reportado pelo Núcleo, a nova redação alivia a proibição de sistemas de IA especificamente projetados para “possibilitar a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes.”

De acordo com o texto revisado, se um gerador de imagens por IA não permitir explicitamente a criação de material ilegal, mas ainda assim o produzir, a pessoa ou empresa responsável poderia evitar penalidades, mesmo que falhas nas proteções ou negligência tenham contribuído para o problema.

Críticos argumentam que essa mudança – junto a outras revisões no Artigo 13 que minimizam a importância dos modelos de alto risco – enfraquece a responsabilização e dificulta que desenvolvedores sejam responsabilizados por negligência.

O senador Eduardo Gomes (PL-TO), relator do projeto, fez mudanças nesta parte do Artigo 13 poucos dias após outro adiamento da votação da comissão, sem esclarecer os motivos. Além disso, o relatório da comissão não especifica qual emenda gerou as revisões sobre modelos de alto risco.

Núcleo apurou junto a fontes envolvidas nas conversas que uma emenda do senador Marcos Rogério (PL-RO) sobre liberdade de expressão provavelmente influenciou várias mudanças que favorecem empresas de tecnologia e de IA, incluindo alterações no Artigo 13.

A emenda propunha uma declaração de que a regulamentação de “aspectos associados à circulação de conteúdo online e que possam afetar a liberdade de expressão, inclusive o uso de IA para moderação e recomendação de conteúdo, somente poderá ser feita por meio de legislação específica.”

Embora tenha rejeitado a emenda, Gomes reconheceu em seu relatório o impacto do argumento, afirmando que ajudou a trazer “melhorias” no Artigo 13 e em outras seções. Gomes defende que permitir o “uso contextual” de sistemas de alto risco preservaria seu “dinamismo” e evitaria que o marco regulatório se tornasse obsoleto.

Marcos Rogério, um dos principais defensores do ex-presidente Jair Bolsonaro no Senado, foi descrito por fontes à reportagem como um “porta-voz das big techs” na CTIA.

Várias fontes envolvidas nas discussões do projeto disseram ao Núcleo que empresas de tecnologia e coalizões do setor argumentaram que partes do projeto poderiam atingir algoritmos de recomendação de conteúdo nas redes sociais.

Para essas empresas, tais algoritmos, que utilizam IA sofisticada, poderiam ser prejudicados ou comprometidos, colocando em risco a liberdade de expressão no Brasil.


Reportagem Sofia Schurig e Julianna Granjeia
Arte Rodolfo Almeida
Edição Alexandre Orrico e Sérgio Spagnuolo

RELATED TOPICS

an orange halftone illustration of a hand underneath a drone

Topic

AI Accountability

AI Accountability
teal halftone illustration of two children, one holding up a teddy bear

Topic

Children and Youth

Children and Youth

RELATED INITIATIVES

Logo: The AI Accountability Network

Initiative

AI Accountability Network

AI Accountability Network

Support our work

Your support ensures great journalism and education on underreported and systemic global issues