“A própria noção de Sistema de IA, que tem como parâmetro o conceito utilizado pela Organização para Cooperação e Desenvolvimento Econômico (OCDE), quando traduzida para o PL, teve alguns aspectos de ordem de definição acrescentados. Eles acabaram tornando o conceito impreciso”, explicou.

01/06/2023

O Marco Legal da Inteligência Artificial no Brasil, que tramita no Congresso Nacional na forma do projeto de lei 2.338/23, tem problemas conceituais, afirmou o diretor do Instituto Beta: Internet & Democracia, Daniel Vila Nova, durante o webinar Diálogos sobre Inteligência Artificial, promovido pelo Instituto dos Advogados Brasileiros (IAB) na última terça-feira (30/5). “A própria noção de Sistema de IA, que tem como parâmetro o conceito utilizado pela Organização para Cooperação e Desenvolvimento Econômico (OCDE), quando traduzida para o PL, teve alguns aspectos de ordem de definição acrescentados. Eles acabaram tornando o conceito impreciso”, explicou.

No evento, o presidente nacional do IAB, Sydney Sanches, destacou que as tecnologias mais recentes têm ganhado espaço em todas as esferas de poder. “O Instituto continuará debatendo esse assunto ao longo do ano e já temos algumas reuniões e eventos marcados sobre o tema”, garantiu Sanches durante a abertura da mesa. O debate, mediado pela presidente da Comissão de Inteligência Artificial e Inovação do IAB, Ana Amélia Menna Barreto, também teve a participação da integrante do coletivo Aqualtune Lab Horrara Moreira.

Para Daniel Vila Nova, o projeto precisa de aprimoramento. “Alguns conceitos poderiam ser melhor especificados. Usos imprecisos podem trazer um impacto ainda mais nocivo, principalmente para situações relacionadas à raça e ao gênero no Brasil”, disse o advogado, que afirmou que o PL está muito genérico. Ana Amélia Menna Barreto destacou que a proposta já avançou, mas ainda pode melhorar. “O Poder Legislativo tem o hábito de lançar a lei e deixar para regulamentar depois. Gostaríamos que a lei já viesse regulamentada, para que não haja outro processo legislativo”, disse a mediadora.

Outro ponto importante da proposta, de acordo com Horrara Moreira, é a abordagem que ela traz sobre a IA. “O PL combina risco e responsabilidade. Então, dentro desses dois pilares, ele vai atribuir obrigações para quem é responsável por esses sistemas. A partir do momento que temos um maior risco para os direitos fundamentais, vamos ter um maior número de obrigações para essas plataformas”, explicou. Ela lembrou, ainda, que o projeto de lei considera questões importantes para populações vulneráveis: “O PL também tentou expressar de que forma queremos avançar como sociedade. Assim, teremos uma maior atenção com o potencial que os algoritmos possuem para se encaminharem para a discriminação direta ou indireta”.

*Por Maria Eduarda da Costa Santos

Fonte: Jornal Jurid