Texto que regula a tecnologia determinou categorias de impacto, foi aprovado e segue para votação no plenário principal do Senado
O texto do Projeto de Lei que regula o uso da inteligência artificial no Brasil foi aprovado pela Comissão Temporária Interna sobre Inteligência Artificial (CTIA), nesta quinta-feira 5. Agora, o assunto seguirá para o plenário do Senado. De autoria do presidente da casa, Rodrigo Pacheco, o PL foi aprovado em um processo de votação simbólica dando solução para uma discussão que se arrastava desde dezembro.
Diogo Cortiz, doutor em tecnologias da Inteligência pela PUC-SP e PhD Fellowship pela Universite Paris-Sorbonne, explica que, a partir dos parâmetros do projeto, antes de lançar um produto de IA no mercado, a empresa deverá realizar “uma avaliação preliminar para determinar o grau de risco do sistema.”
“A Lei vetará o desenvolvimento e o uso dos sistemas enquadrados em riscos excessivos. Já os sistemas de alto risco são aqueles que são prováveis de trazer um impacto adverso para pessoas ou grupos de pessoas”, destaca Ortiz, reforçando que, neste caso, cabem ajustes.
O texto do Marco Legal da Inteligência Artificial (IA) considerou um sistema que classifica os riscos para uso de tecnologia. Existem duas categorias: Risco Excessivo e Alto Risco. Caroline Capitani, VP de Estratégia e Inovação da ilegra, empresa global de estratégia, inovação e tecnologia, explica que a forma como foi feito “representa um avanço significativo para promover uma inovação mais segura e ética no Brasil e alinha o país às práticas internacionais, promovendo inovação responsável. Essa abordagem permite separar as tecnologias que apresentam riscos substanciais à sociedade daquelas de baixo impacto, proporcionando um equilíbrio entre desenvolvimento tecnológico e proteção de direitos.”
No entanto, a executiva alerta para que essa estrutura funcione, é preciso ir além da Lei. “É necessário investir em letramento digital e educação tecnológica, capacitando a sociedade para entender os impactos da IA e a se engajar no debate público. Com um olhar atento e políticas de fiscalização adaptáveis, poderemos garantir que os benefícios da IA sejam maximizados, enquanto minimizamos seus riscos.”, conclui Caroline.
Para Henrique Fabretti, sócio do escritório Opice Blum, a última versão do PL utiliza a previsão de classificação em modelo semelhante ao utilizado pela regulação de IA da União Europeia, recentemente aprovada.
“O texto do PL traz a previsão de regras rigorosas de governança para tais sistemas, como documentação de todo o ciclo de vida, testes para assegurar confiabilidade e segurança, mitigação de vieses discriminatórios e disponibilização de informações que permitam a compreensão de seus resultados. Além disso, é obrigatória a realização de avaliações de impacto algorítmico antes da introdução no mercado, com revisões periódicas ao longo do ciclo de vida do sistema, considerando riscos, benefícios e medidas de mitigação.”, afirma Henrique.
Riscos Excessivos
No caso de Riscos Excessivos, são considerados aqueles que podem induzir os usuários a se comportarem de forma prejudicial ou perigosa à saúde ou segurança própria. Casos de indução ao suicidio ou exploração sexual infantil.
Entram nessa categoria sistemas de armas autônomas sem controle humano, ou usados pelo poder público para avaliar, classificar ou ranquear as pessoas “com base em seu comportamento social ou em atributos de personalidade.”.
Alto Risco
Aqui, por exemplo, estão a “implementação em larga escala de uma determinada IA, levando-se em consideração o número de pessoas afetadas e a extensão geográfica”
Outro tipo de alto risco é se o sistema “tiver alto potencial danoso de ordem material ou moral, além de discriminatório”, se ele afetar pessoas de um grupo vulnerável, se possua baixo grau de transparência, aplicabilidade e auditabilidade.”
Os sistemas de alto risco estarão sujeitos a obrigações adicionais de governança.
Fonte: Projeto de Lei da IA: Entenda a Diferença entre Risco Excessivo e Alto Risco