Inteligência Artificial: entidades questionam retrocessos em projeto de lei para regulamentação

Carta divulgada pela Coalizão Direitos na Rede alerta para melhoria de pontos essenciais em nova versão do PL; votação acontece essa semana

A votação do Projeto de Lei 2338/2023, que estabelecerá as regras para o desenvolvimento e uso da inteligência artificial no Brasil, se aproxima e organizações da sociedade civil, representada por mais de 30 conjuntos da Coalizão Direitos na Rede, alerta para a necessidade de aprimoramentos urgentes no texto.  Em documento divulgado nesta sexta-feira (29), as entidades sinalizam que a versão atual do projeto, embora seja um primeiro passo, contém retrocessos que podem comprometer a proteção dos direitos dos cidadãos. 

A Coalizão Direitos na Rede é uma rede de entidades que reúne organizações acadêmicas e da sociedade civil em defesa dos direitos digitais, tendo como temas principais de atuação: acesso, liberdade de expressão, proteção de dados pessoais e privacidade na Internet.

A votação do PL 2338/2023 na Comissão Temporária Interna sobre Inteligência Artificial do Senado (CTIA) está marcada para esta terça-feira (3). Os signatários destacam que o PL de IA inclui disposições essenciais, como a regulação baseada em riscos e a proteção dos direitos das pessoas afetadas pela tecnologia, mas alertam que “avanços podem ser seriamente prejudicados por retrocessos e ameaças ao conteúdo do texto”. A versão atualizada foi apresentada no dia 28 de novembro pelo senador bolsonarista Eduardo Gomes (PL-TO), relator do projeto que está em tramitação, durante encontro da CTIA.

De acordo com Rafael Zanatta, co-diretor da Data Privacy Brasil, uma das organizações signatárias da carta, foi removido aquilo mais protetivo. “Embora o tema do trabalho permaneça no texto, a linguagem não traz uma forte ênfase em direitos, sendo apenas algo mais voltado para uma abordagem programática futura.”

As organizações, apesar de apontarem aspectos críticos, também reforçam a necessidade urgente de aprovação do PL 2338. “É um projeto de lei com uma gramática robusta de direitos, utilizando a regulação por riscos. E não é uma cópia da União Europeia, podendo ser um modelo interessante para o Sul Global”, afirmou Gomes ao destacar avanços que o projeto atual trazia em relação às propostas anteriores.

O co-diretor da Data Privacy Brasil esclareceu que a retirada das diretrizes para o trabalho – defendidas pelos movimentos dos trabalhadores – foi resultado da pressão da indústria e do setor privado, que foi aceita pelo governo. Desde ontem, o incentivo para programas de treinamento e qualificação foi novamente incluído no texto.

A nova versão do PL também trouxe retrocessos na participação social nos processos de prestação de contas dos agentes de IA e na avaliação de impacto dos sistemas. “Para garantir sistemas de IA que sejam responsáveis e protejam os direitos, é essencial a fiscalização pública, envolvendo a participação da sociedade”, sublinhou a carta.

As organizações signatárias da carta expressam preocupação com a possibilidade de flexibilização das regras que proíbem o uso de inteligência artificial (IA) para a produção e distribuição de conteúdo abusivo e exploratório envolvendo crianças e adolescentes. Atualmente, essas IAs são consideradas de altíssimo risco. Segundo o documento, existe uma tentativa de reverter essa classificação, permitindo o uso de ferramentas de IA que facilitem a criação desse tipo de conteúdo, desde que não sejam projetadas especificamente para esse fim.

Veja ponto a ponto a reivindicação das organizações

Quais pontos devem ser mantidos?

  1. Rol de alto risco e risco excessivo como exemplificativos com a definição de critérios e procedimentos de atualização (art. 15);
  2. Rol de direitos (Capítulo III);
  3. Sistemas de curadoria e recomendação de conteúdo no rol de alto risco (Art. 14, inciso XIII);
  4. Remuneração por uso de conteúdos protegidos por direitos autorais (Capítulo X, Seção IV);
  5. Medidas de governança obrigatórias (Capítulo IV).

Quais pontos deveriam ser alterados?

  1. Redução de exceções ao escopo de aplicação (Art. 1, inciso I);
  2. Direito à revisão como aplicável a todo sistemas de IA (Art. 6, inciso III);
  3. Avaliação preliminar como obrigatória (Art. 12)
  4. Desvinculação das alíneas do inciso I do Art. 13 a um propósito;
  5. Definir contornos precisos quanto ao risco relevante à integridade das pessoas (Art. 14, inciso VIII) e em relação ao conjunto de dados que podem ser acessados para identificação de padrões e perfis comportamentais (Art. 14, inciso IX);
  6. Garantia de participação social nas avaliações de impacto e no SIA (Art. 25, inciso VIII) e de consulta pública prévia a normas infralegais (Art. 49, versão anterior);
  7. Aumento das garantias trabalhistas (Art. 58);
  8. Retomada dos direitos de informação prévia e de determinação e de participação humana (Art. 5, incisos I e III).

Alguns pontos importantes para as organizações podem ser mantidos no novo texto, embora enfrentem forte oposição por parte das empresas do setor, que buscam sua remoção. Um deles é a previsão de atualização da lista de sistemas de alto risco pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), conforme estabelecido no artigo 15 do texto atual.

“Esta possibilidade é fundamental para que a lei não nasça desatualizada, considerando o dinamismo do setor de IA”, diz o documento. 

“Se a lista de sistemas de alto risco for taxativa e restrita àquela elencada hoje no texto, a sociedade brasileira ficará refém de riscos postos por quaisquer novos sistemas de IA não contemplados ali. A legislação precisa ser viva.”



As regras sobre sistemas de IA usados em plataformas digitais para recomendar e distribuir conteúdo estão sob forte pressão das empresas, que discordam da classificação atual dessas tecnologias como de alto risco. “Estes modelos algorítmicos estão classificados como de alto risco, justamente pelo reconhecido impacto que podem ter sobre o comportamento humano, sobre o debate público e para a democracia”, enfatiza o texto.

lobby empresarial também está focado nas regras que garantem a proteção e compensação de titulares de direitos autorais cujos conteúdos são usados para treinar sistemas de IA. “É fundamental manter os artigos que tratam dos conteúdos protegidos por direitos autorais e conexos, garantindo que os titulares desses direitos tenham conhecimento dos usos de suas obras para o treinamento de sistemas de inteligência artificial, por meio da transparência dos conteúdos utilizados, e também possam restringir este uso e tenham direito à expressa remuneração adequada por eventuais usos de suas obras.”

Quem assina

Coalizão Direitos na Rede (CDR) 

Associação de Jornalismo Digital (AJOR) 

Data Privacy Brasil

Fórum Nacional pela Democratização da Comunicação (FNDC)

Repórteres Sem Fronteiras (RSF)

União Democrática dos Artistas Digitais (UNIDAD)

Laboratório de Políticas Públicas e Internet – LAPIN

Laboratório de Políticas de Comunicação da UnB 

Instituto Nupef

Intervozes – Coletivo Brasil de Comunicação Social

IP.rec – Instituto de Pesquisa em Direito e Tecnologia do Recife

Idec – Instituto de Defesa de Consumidores

Alexandre Boava – Integrante do Núcleo de Tecnologia do MTST e do CNPD

Instituto de Referência em Internet e Sociedade – IRIS

Sleeping Giants Brasil

Helena Martins – Professora da UFC, editora da Revista Eptic, integrante do DiraCom – Direito à Comunicação e Democracia 

FAOR Fórum da Amazônia Oriental 

Aláfia Lab

Conectas Direitos Humanos

Centro de Estudos de Segurança e Cidadania – CESeC

Campanha Nacional pelo Direito à Educação

Instituto Telecom  

Iniciativa Direito a Memória e Justiça Racial

Complexos – Advocacy de Favelas

Creative Commons Brasil

Instituto de Defesa do Direito de Defesa – IDDD

DiraCom – Direito à Comunicação e Democracia

Central Única dos Trabalhadores – CUT Brasil

Agenda Pública 

Pão com Ovo-mídia ativista e Independente 

Preto – diretor de comunicação (CPERS Sindicato RS)

Transparência Eleitoral Brasil

Coletivo Digital

Comitê em Defesa da Democracia e do Estado Democrático de Direito

Prof Dra Gabrielle Bezerra Sales Sarlet ( GDIA- PPGD PUC-RS ) 

Cristianne Ly – Garotas do Motion®

Bianca Berti – Transparência Brasil

Ana Carolina Lima – Aqualtune Lab – Instituto de Estudos sobre Tecnologias e Direito

Roberta Viegas

Edson Prestes

Ana Carolina Sousa Dias – LAPIN

Fonte: Inteligência Artificial: entidades questionam retrocessos em projeto de lei para regulamentação | Revista Fórum

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Continue Lendo

Copyright © 2020 Brasília Mais TI