Carta divulgada pela Coalizão Direitos na Rede alerta para melhoria de pontos essenciais em nova versão do PL; votação acontece essa semana
A votação do Projeto de Lei 2338/2023, que estabelecerá as regras para o desenvolvimento e uso da inteligência artificial no Brasil, se aproxima e organizações da sociedade civil, representada por mais de 30 conjuntos da Coalizão Direitos na Rede, alerta para a necessidade de aprimoramentos urgentes no texto. Em documento divulgado nesta sexta-feira (29), as entidades sinalizam que a versão atual do projeto, embora seja um primeiro passo, contém retrocessos que podem comprometer a proteção dos direitos dos cidadãos.
A Coalizão Direitos na Rede é uma rede de entidades que reúne organizações acadêmicas e da sociedade civil em defesa dos direitos digitais, tendo como temas principais de atuação: acesso, liberdade de expressão, proteção de dados pessoais e privacidade na Internet.
A votação do PL 2338/2023 na Comissão Temporária Interna sobre Inteligência Artificial do Senado (CTIA) está marcada para esta terça-feira (3). Os signatários destacam que o PL de IA inclui disposições essenciais, como a regulação baseada em riscos e a proteção dos direitos das pessoas afetadas pela tecnologia, mas alertam que “avanços podem ser seriamente prejudicados por retrocessos e ameaças ao conteúdo do texto”. A versão atualizada foi apresentada no dia 28 de novembro pelo senador bolsonarista Eduardo Gomes (PL-TO), relator do projeto que está em tramitação, durante encontro da CTIA.
De acordo com Rafael Zanatta, co-diretor da Data Privacy Brasil, uma das organizações signatárias da carta, foi removido aquilo mais protetivo. “Embora o tema do trabalho permaneça no texto, a linguagem não traz uma forte ênfase em direitos, sendo apenas algo mais voltado para uma abordagem programática futura.”
As organizações, apesar de apontarem aspectos críticos, também reforçam a necessidade urgente de aprovação do PL 2338. “É um projeto de lei com uma gramática robusta de direitos, utilizando a regulação por riscos. E não é uma cópia da União Europeia, podendo ser um modelo interessante para o Sul Global”, afirmou Gomes ao destacar avanços que o projeto atual trazia em relação às propostas anteriores.
O co-diretor da Data Privacy Brasil esclareceu que a retirada das diretrizes para o trabalho – defendidas pelos movimentos dos trabalhadores – foi resultado da pressão da indústria e do setor privado, que foi aceita pelo governo. Desde ontem, o incentivo para programas de treinamento e qualificação foi novamente incluído no texto.
A nova versão do PL também trouxe retrocessos na participação social nos processos de prestação de contas dos agentes de IA e na avaliação de impacto dos sistemas. “Para garantir sistemas de IA que sejam responsáveis e protejam os direitos, é essencial a fiscalização pública, envolvendo a participação da sociedade”, sublinhou a carta.
As organizações signatárias da carta expressam preocupação com a possibilidade de flexibilização das regras que proíbem o uso de inteligência artificial (IA) para a produção e distribuição de conteúdo abusivo e exploratório envolvendo crianças e adolescentes. Atualmente, essas IAs são consideradas de altíssimo risco. Segundo o documento, existe uma tentativa de reverter essa classificação, permitindo o uso de ferramentas de IA que facilitem a criação desse tipo de conteúdo, desde que não sejam projetadas especificamente para esse fim.
Veja ponto a ponto a reivindicação das organizações
Quais pontos devem ser mantidos?
- Rol de alto risco e risco excessivo como exemplificativos com a definição de critérios e procedimentos de atualização (art. 15);
- Rol de direitos (Capítulo III);
- Sistemas de curadoria e recomendação de conteúdo no rol de alto risco (Art. 14, inciso XIII);
- Remuneração por uso de conteúdos protegidos por direitos autorais (Capítulo X, Seção IV);
- Medidas de governança obrigatórias (Capítulo IV).
Quais pontos deveriam ser alterados?
- Redução de exceções ao escopo de aplicação (Art. 1, inciso I);
- Direito à revisão como aplicável a todo sistemas de IA (Art. 6, inciso III);
- Avaliação preliminar como obrigatória (Art. 12)
- Desvinculação das alíneas do inciso I do Art. 13 a um propósito;
- Definir contornos precisos quanto ao risco relevante à integridade das pessoas (Art. 14, inciso VIII) e em relação ao conjunto de dados que podem ser acessados para identificação de padrões e perfis comportamentais (Art. 14, inciso IX);
- Garantia de participação social nas avaliações de impacto e no SIA (Art. 25, inciso VIII) e de consulta pública prévia a normas infralegais (Art. 49, versão anterior);
- Aumento das garantias trabalhistas (Art. 58);
- Retomada dos direitos de informação prévia e de determinação e de participação humana (Art. 5, incisos I e III).
Alguns pontos importantes para as organizações podem ser mantidos no novo texto, embora enfrentem forte oposição por parte das empresas do setor, que buscam sua remoção. Um deles é a previsão de atualização da lista de sistemas de alto risco pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), conforme estabelecido no artigo 15 do texto atual.
“Esta possibilidade é fundamental para que a lei não nasça desatualizada, considerando o dinamismo do setor de IA”, diz o documento.
“Se a lista de sistemas de alto risco for taxativa e restrita àquela elencada hoje no texto, a sociedade brasileira ficará refém de riscos postos por quaisquer novos sistemas de IA não contemplados ali. A legislação precisa ser viva.”
As regras sobre sistemas de IA usados em plataformas digitais para recomendar e distribuir conteúdo estão sob forte pressão das empresas, que discordam da classificação atual dessas tecnologias como de alto risco. “Estes modelos algorítmicos estão classificados como de alto risco, justamente pelo reconhecido impacto que podem ter sobre o comportamento humano, sobre o debate público e para a democracia”, enfatiza o texto.
O lobby empresarial também está focado nas regras que garantem a proteção e compensação de titulares de direitos autorais cujos conteúdos são usados para treinar sistemas de IA. “É fundamental manter os artigos que tratam dos conteúdos protegidos por direitos autorais e conexos, garantindo que os titulares desses direitos tenham conhecimento dos usos de suas obras para o treinamento de sistemas de inteligência artificial, por meio da transparência dos conteúdos utilizados, e também possam restringir este uso e tenham direito à expressa remuneração adequada por eventuais usos de suas obras.”
Quem assina
Coalizão Direitos na Rede (CDR)
Associação de Jornalismo Digital (AJOR)
Data Privacy Brasil
Fórum Nacional pela Democratização da Comunicação (FNDC)
Repórteres Sem Fronteiras (RSF)
União Democrática dos Artistas Digitais (UNIDAD)
Laboratório de Políticas Públicas e Internet – LAPIN
Laboratório de Políticas de Comunicação da UnB
Instituto Nupef
Intervozes – Coletivo Brasil de Comunicação Social
IP.rec – Instituto de Pesquisa em Direito e Tecnologia do Recife
Idec – Instituto de Defesa de Consumidores
Alexandre Boava – Integrante do Núcleo de Tecnologia do MTST e do CNPD
Instituto de Referência em Internet e Sociedade – IRIS
Sleeping Giants Brasil
Helena Martins – Professora da UFC, editora da Revista Eptic, integrante do DiraCom – Direito à Comunicação e Democracia
FAOR Fórum da Amazônia Oriental
Aláfia Lab
Conectas Direitos Humanos
Centro de Estudos de Segurança e Cidadania – CESeC
Campanha Nacional pelo Direito à Educação
Instituto Telecom
Iniciativa Direito a Memória e Justiça Racial
Complexos – Advocacy de Favelas
Creative Commons Brasil
Instituto de Defesa do Direito de Defesa – IDDD
DiraCom – Direito à Comunicação e Democracia
Central Única dos Trabalhadores – CUT Brasil
Agenda Pública
Pão com Ovo-mídia ativista e Independente
Preto – diretor de comunicação (CPERS Sindicato RS)
Transparência Eleitoral Brasil
Coletivo Digital
Comitê em Defesa da Democracia e do Estado Democrático de Direito
Prof Dra Gabrielle Bezerra Sales Sarlet ( GDIA- PPGD PUC-RS )
Cristianne Ly – Garotas do Motion®
Bianca Berti – Transparência Brasil
Ana Carolina Lima – Aqualtune Lab – Instituto de Estudos sobre Tecnologias e Direito
Roberta Viegas
Edson Prestes
Ana Carolina Sousa Dias – LAPIN