
Read this story in English here.
Lobby de Big Tech remodelou os esforços de legislação de IA do Brasil, removendo salvaguardas anteriormente propostas contra modelos de IA de alto risco que poderiam gerar conteúdo de exploração envolvendo crianças
Nas mais recentes deliberações de um projeto de lei com potencial de estabelecer a primeira regulamentação da inteligência artificial no Brasil, senadores decidiram aliviar restrições sobre sistemas de IA de alto risco, incluindo aqueles capazes de produzir materiais contendo abuso sexual infantil, cedendo a pressões do lobby de Big Techs sobre o assunto.
O projeto de lei 2.338/23 em discussão no Senado, que se encontra na Comissão Temporária Interna sobre Inteligência Artificial (CTIA), inicialmente se espelhou no modelo da União Europeia, sugerindo critérios rigorosos para classificar modelos considerados de alto risco.
O Projeto de Lei 2.338/23 que estabelece normas para o “desenho, desenvolvimento, implementação, uso, adoção e governança responsável” da IA no Brasil.
A versão mais recente apresentada, porém, inclina-se para a autorregulação, algo defendido por empresas de tecnologia, que argumentaram que leis mais rígidas poderiam sufocar a inovação no país, de acordo com várias fontes ouvidas pelo Núcleo.
Como uma organização jornalística sem fins lucrativos, dependemos de seu apoio para financiar o jornalismo que cobre assuntos marginalizados em todo o mundo. Doe qualquer quantia hoje para se tornar um Campeão Pulitzer Center e receba benefícios exclusivos!
A comissão prorrogou o prazo para conclusão da votação cinco vezes desde mai.2024, optando por revisar a ampla proibição inicial sobre sistemas de IA de alto risco na última terça-feira (3.dez.2024).
Mudança de versões
Na versão anterior, o texto do projeto proibia diversos modelos de alto risco, incluindo aqueles que poderiam “produzir, disseminar ou facilitar” a criação de materiais de exploração sexual infantil, e classificava todas as aplicações de IA na internet como de alto risco. Ambas as disposições foram alteradas.
Como já reportado pelo Núcleo, a nova redação alivia a proibição de sistemas de IA especificamente projetados para “possibilitar a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes.”
De acordo com o texto revisado, se um gerador de imagens por IA não permitir explicitamente a criação de material ilegal, mas ainda assim o produzir, a pessoa ou empresa responsável poderia evitar penalidades, mesmo que falhas nas proteções ou negligência tenham contribuído para o problema.
Críticos argumentam que essa mudança – junto a outras revisões no Artigo 13 que minimizam a importância dos modelos de alto risco – enfraquece a responsabilização e dificulta que desenvolvedores sejam responsabilizados por negligência.
O senador Eduardo Gomes (PL-TO), relator do projeto, fez mudanças nesta parte do Artigo 13 poucos dias após outro adiamento da votação da comissão, sem esclarecer os motivos. Além disso, o relatório da comissão não especifica qual emenda gerou as revisões sobre modelos de alto risco.
O Núcleo apurou junto a fontes envolvidas nas conversas que uma emenda do senador Marcos Rogério (PL-RO) sobre liberdade de expressão provavelmente influenciou várias mudanças que favorecem empresas de tecnologia e de IA, incluindo alterações no Artigo 13.
A emenda propunha uma declaração de que a regulamentação de “aspectos associados à circulação de conteúdo online e que possam afetar a liberdade de expressão, inclusive o uso de IA para moderação e recomendação de conteúdo, somente poderá ser feita por meio de legislação específica.”
Embora tenha rejeitado a emenda, Gomes reconheceu em seu relatório o impacto do argumento, afirmando que ajudou a trazer “melhorias” no Artigo 13 e em outras seções. Gomes defende que permitir o “uso contextual” de sistemas de alto risco preservaria seu “dinamismo” e evitaria que o marco regulatório se tornasse obsoleto.
Marcos Rogério, um dos principais defensores do ex-presidente Jair Bolsonaro no Senado, foi descrito por fontes à reportagem como um “porta-voz das big techs” na CTIA.
Várias fontes envolvidas nas discussões do projeto disseram ao Núcleo que empresas de tecnologia e coalizões do setor argumentaram que partes do projeto poderiam atingir algoritmos de recomendação de conteúdo nas redes sociais.
Para essas empresas, tais algoritmos, que utilizam IA sofisticada, poderiam ser prejudicados ou comprometidos, colocando em risco a liberdade de expressão no Brasil.
Reportagem Sofia Schurig e Julianna Granjeia
Arte Rodolfo Almeida
Edição Alexandre Orrico e Sérgio Spagnuolo