Disputas entre big techs, governo e sociedade civil moldam o PL 2.338/23, com foco na integridade da informação e nos sistemas de alto risco. O lobby do setor privado influencia mudanças no texto, enquanto conceitos-chave como liberdade de expressão permanecem no centro das controvérsias.
Durante mais de um ano, um cabo-de-guerra entre ministérios, setor privado e sociedade civil moldou o principal projeto de lei para regular inteligência artificial no Brasil, trazendo à tona os esforços de lobby que as Big Techs fazem a portas fechadas.
O PL 2.338/23, proposta mais abrangente para a regulação da inteligência artificial no país neste momento, foi aprovado na noite de terça-feira (10.dez) no Senado, e agora segue para análise da Câmara dos Deputados em 2025.
As divergências entre os setores causaram múltiplas alterações de última hora no texto do projeto e atrasos na votação.
Como uma organização jornalística sem fins lucrativos, dependemos de seu apoio para financiar o jornalismo que cobre assuntos marginalizados em todo o mundo. Doe qualquer quantia hoje para se tornar um Campeão Pulitzer Center e receba benefícios exclusivos!
No centro dos embates estão três assuntos principais:
- integridade da informação;
- alto risco de sistemas de IA;
- proteções a direitos autorais.
1 - Integridade da informação
Um dos principais assuntos de disputa é o conceito de integridade da informação, questão-chave tanto para a oposição e quanto a base governista, mas também uma ideia inovadora na legislação brasileira e desconhecida até mesmo para especialistas.
No texto substitutivo do PL 2.338/23, a integridade da informação é definida como o “resultado de um ecossistema informacional que viabiliza informações confiáveis, diversas e precisas, promovendo a liberdade de expressão”. Em poucas palavras, significa que os sistemas de IA precisam reproduzir a realidade.
O Núcleo apurou que as disputas em torno desse assunto aconteceram devido à atuação do setor privado.
Todas as menções à integridade da informação contém, em seguida, citações à liberdade de expressão.
Isso acontece porque senadores da oposição, influenciados pelo lobby das Big Techs, temiam o uso do dispositivo como justificativa para “censurar” algoritmos de recomendação e moderação de conteúdo nas redes sociais.
Bia Barbosa, coordenadora de incidência da Repórteres Sem Fronteiras (RSF) na América Latina, enfatiza que a integridade da informação não deve ser vista como uma ferramenta para obrigar plataformas a moderarem conteúdos individualmente. Segundo ela, trata-se de "ajustar para maior confiabilidade nos sistemas”, estabelecendo fundamentos para o desenvolvimento ético e confiável de sistemas de IA.
Rafael Zanatta, diretor da Associação Data Privacy Brasil de Pesquisa, diz que as negociações com as empresas para finalizar o texto se prolongaram devido à insistência do governo em preservar o conceito de integridade das informações em pelo menos alguns incisos do projeto.
"Esse conceito [integridade informacional] é novo, e os especialistas da área não têm um entendimento consensual ou unívoco do que ele significa"
– Rafael Zanatta, Data Privacy Brasil
"Mas como o texto ainda precisará passar pela Câmara, e os deputados ainda não se manifestaram muito sobre esse tema, ainda não é possível saber o que teremos no final desse processo”, disse ele, acrescentando que a Confederação Nacional da Indústria (CNI) "realmente tem uma influência significativa nesse projeto."
2 - Sistemas de alto risco
Antes de o foco ser direcionado para o conceito de integridade da informação, a principal preocupação do setor privado estava nos chamados sistemas de alto risco. O problema inicial estava no tipo de lista acerca desses sistemas.
Para organizações como a CNI e empresas de tecnologia, a regulação deveria se concentrar no uso final de sistemas de IA conforme seus riscos, e não no desenvolvimento da tecnologia. Dessa forma, a fiscalização agiria apenas e somente em cima de riscos mencionados diretamente na lei.
Mas o entendimento oficial do governo Lula é de que uma eventual autoridade regulatória possa incluir novos sistemas de IA conforme a necessidade, à medida que a tecnologia se desenvolve e novos usos aparecem.
Alguns ministérios, no entanto, como o do Desenvolvimento, Inovação e Serviços (MDIC), argumentam que, para atrair investimentos e impulsionar o desenvolvimento da IA no Brasil, é crucial garantir mais segurança jurídica na regulação. Ao Núcleo, a assessoria de imprensa do MDIC declarou ter recebido diversas entidades para debate sobre o PL 2.338/23.
"A CNI apresentou suas sugestões ao MDIC e diretamente ao Senado, defendendo propostas que não foram acolhidas integralmente. Não houve mudança em relação ao que foi discutido na reunião citada com representantes da CNI. Enfim, toda a participação do MDIC ocorreu com vistas à melhoria do PL e adequado atendimento ao interesse público."
O relator do PL na comissão, Eduardo Gomes (PL-TO), rejeitou as propostas do MDIC, da CNI e do setor privado, mas acatou, no entanto, uma emenda do senador Marcos Rogério (PL-RO) que retirou do rol de alto risco os sistemas de curadoria, difusão, recomendação e distribuição automatizada de conteúdo — ou seja, os algoritmos usados por empresas como YouTube, Google, X, TikTok e Meta para determinar como distribuir e recomendar conteúdo.
3 - Direitos autorais
Por fim, o tema de direitos autorais também gerou bastante discussão.
Muitas das emendas apresentadas por senadores do PL permitiam às empresas de IA usar conteúdo online para treinar seus modelos sem pagamento de direitos autorais, argumento defendido pelas big techs.
Em nota divulgada na semana passada, entidades representativas de diversos setores – entre eles, das empresas de tecnologia, – como a Associação Brasileira do Agronegócio (ABAG), Associação Brasileira das Empresas de Software (ABES), ABStartups, Associação Brasileira de Data Center (ABDC) e Câmara E-Net, afirmam que a cobrança dos direitos autorais como está no projeto "pode inviabilizar o desenvolvimento da IA no Brasil".
O presidente do Senado, Rodrigo Pacheco (PSD-MG), autor do projeto, rejeitou todas as emendas, assim como a tentativa de um novo adiamento da votação do PL no plenário.
Até a questão trabalhista entrou…
Antes da votação, na segunda-feira (9.dez), a Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP) divulgou uma nota ameaçando judicializar o PL por conter "regras trabalhistas".
“A fixação de regras trabalhistas no Projeto de Lei (PL) 2.338/2023... é prejudicial à atividade econômica e ao debate sobre a regulação do uso da tecnologia. A Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP) ressalta que a inserção do tema no PL vai gerar conflitos com o ordenamento jurídico, provocando a judicialização”, informa a nota.
Grupos de lobby
Ao contrário do projeto de lei 2630/20, o PL das Fake News, onde big techs e empresas de tecnologia se manifestaram individualmente ou coletivamente contra a legislação, no PL da IA o setor está se articulando via associações, escritórios de advocacia e grupos de lobby conhecidos.
Ainda que fontes presentes no Senado, seja trabalhando na casa ou atuando perto do trabalho da CTIA, tenham dito ao Núcleo ser “fato sabido” que empresas de tecnologia estariam escrevendo emendas para os senadores da comissão, mapear e entender essa atuação por meio de informações públicas é difícil.
Na semana passada, a Repórteres Sem Fronteiras (RSF) classificou como “preocupante” a interferência das Big Techs, declarando que “a pressão das empresas de tecnologia e dos partidos de extrema direita resultou na exclusão dos sistemas de IA usados para moderar e recomendar conteúdo em plataformas digitais do escopo da lei, deixando essas questões regulatórias para uma possível legislação futura.”
A reportagem teve acesso negado às listas de presença de não parlamentares que estiveram no Senado nos dias 3-5.dez.2024, durante as últimas sessões da CTIA. O setor de segurança justificou a decisão citando uma diretriz interna que classifica os nomes dos visitantes como “informações de caráter pessoal”, protegidas pela Lei Geral de Proteção de Dados (LGPD).
Em teoria, a Lei de Acesso à Informação (LAI) garante acesso público, aberto e gratuito às documentações relacionadas ao funcionamento do Congresso Nacional e de outros órgãos públicos, como o Supremo Tribunal Federal (STF). A Câmara dos Deputados, por exemplo, atende às solicitações de acesso à informação semelhantes.