O Brasil vem discutindo a criação de uma lei geral regulamentadora da inteligência artificial sem ter um diagnóstico satisfatório dos impactos dessa tecnologia no país. Não há um levantamento oficial sobre questões como os setores mais beneficiados, os ganhos proporcionados, os prejuízos e as ameaças. Sem isso, faz mais sentido alterar leis já existentes ou editar novas normas com foco em temas específicos.
2 de julho de 2024, 8h52
O advogado Ciro Torres Freitas (Spacca)
É o que diz o advogado Ciro Torres Freitas, especializado no tema, ele é crítico da ideia de estabelecer uma lei geral da IA no Brasil no cenário atual — o que é atualmente discutido no Congresso, por meio do Projeto de Lei 2.338/2023.
Para ele, a falta de um diagnóstico gera o risco de que a futura lei “seja insuficiente para mitigar os efeitos indesejados da IA” — como a discriminação algorítmica — e acabe “inibindo os potenciais benefícios dessa tecnologia” ou desencorajando o seu uso.
Segundo Freitas, conhecer os impactos causados pela IA é “algo fundamental para se definir prioridades, identificar lacunas na legislação atual e, a partir disso, delimitar o escopo de novas normas a serem criadas”. Como esse diagnóstico ainda não foi feito no país, ele defende que a regulamentação aconteça “remediando aquelas situações mais prementes e evidentes de forma pontual”.
“A lei não pode ser uma solução à procura de um problema. A lei deve vir para resolver situações concretas”, assinala o advogado. Na sua visão, uma lei geral da IA não seria um problema “se estivessem claros os impactos dessa tecnologia na nossa sociedade”.
Em entrevista à revista eletrônica Consultor Jurídico, Freitas ressaltou que é incomum no Brasil a criação de leis gerais sobre tecnologias. O caminho mais adotado é a regulamentação do seu uso “em âmbitos específicos”.
O advogado ainda explicou que alguns problemas causados pela IA já possuem soluções dentro da legislação atual — por exemplo, questões de responsabilidade civil já são resolvidas pelo Código de Defesa do Consumidor (CDC) e pelo Código Civil.
Por outro lado, ele acredita que algumas leis já existentes poderiam ser “ajustadas pontualmente para endereçar situações envolvendo IA”. Os problemas relacionados a obras protegidas usadas em treinamentos de sistemas de IA, por exemplo, poderiam ser corrigidos com alterações na Lei de Direitos Autorais.
Leia a seguir a entrevista:
ConJur — Está claro, no Brasil, quais problemas gerados pela IA precisam ser solucionados pela legislação?
Ciro Torres Freitas — Não há um diagnóstico satisfatório dos impactos da IA no nosso país. E é curioso porque o governo brasileiro lançou, em 2021, a Estratégia Brasileira de Inteligência Artificial, que serviria exatamente para nortear as ações do Estado em prol do desenvolvimento de uma série de ações relacionadas à IA.
Nesse documento há um capítulo exatamente sobre diagnóstico do uso da IA. Mas a verdade é que ali há pouquíssima coisa a respeito dos impactos concretos da IA na nossa sociedade. Em termos de problemas constatados, formas de prevenção e riscos versus benefícios, esse documento não traz praticamente nada.
Então, não há hoje, no Brasil, um levantamento oficial sobre questões como: quais são os setores que mais se beneficiam da IA; quais são os ganhos proporcionados; quais são os prejuízos; quais são as ameaças; etc.
Conhecer esses impactos é algo fundamental para se definir prioridades, identificar lacunas na legislação atual e, a partir disso, delimitar o escopo de novas normas a serem criadas.
É claro que alguns desses impactos podem ser comuns ao que se verifica em outras jurisdições, de outros países. Certas questões envolvendo IA são universais. Mas é bastante provável que também existam especificidades locais, que precisam ser refletidas em uma lei do nosso país. E a única forma de cobrirmos isso é por meio de um diagnóstico que ainda não existe.
ConJur — Quais são os principais problemas de discutir uma lei geral da IA sem um diagnóstico ou panorama sobre os problemas da tecnologia e as soluções pretendidas?
Ciro Torres Freitas — O principal problema é que o legislador acaba ficando exposto ao risco de criar uma lei que seja insuficiente para mitigar os efeitos indesejados da IA, e que também pode acabar involuntariamente inibindo os potenciais benefícios dessa tecnologia.
Quando uma lei não é concebida levando em conta as diferenças significativas sob os pontos de vista econômico e social existentes na população brasileira, ela pode não ser suficientemente adequada em relação à necessidade de mitigar, por exemplo, os vieses discriminatórios de sistemas de IA — a discriminação algorítmica.
Por outro lado, uma lei que não traga as ressalvas apropriadas para a nossa realidade local pode, por exemplo, desencorajar o uso da IA em procedimentos médicos, na medida em que venha a sujeitar o operador a um regime de responsabilidade mais severo do que o geral, mesmo que o método por ele utilizado seja comprovadamente melhor e gere resultados mais seguros e mais positivos para os pacientes em comparação a outras tecnologias.
Então, podem existir falhas legislativas em ambas as direções, se a lei não refletir a realidade da nossa sociedade. A lei não pode ser uma solução à procura de um problema. A lei deve vir para resolver situações concretas.
ConJur — Quem deve fazer esse diagnóstico?
Ciro Torres Freitas — Na medida em que o governo lançou uma Estratégia Brasileira de IA e se propôs a se valer desse documento para guiar suas ações em prol do desenvolvimento dessa tecnologia, esse diagnóstico deveria ser feito no contexto dessa iniciativa. Caberia, sim, ao governo pelo menos tomar a iniciativa de promover esse diagnóstico.
Lógico que o governo não precisa fazer isso sozinho. Ele pode se valer de parcerias com entidades de pesquisa, universidades e a própria sociedade civil. Não é uma tarefa que deve ser atribuída única e exclusivamente ao Estado. Mas cabe ao governo, na medida em que se propõe a criar normas de escopo tão amplo a respeito de algo tão relevante, ao menos liderar essa iniciativa de fazer um diagnóstico adequado sobre os impactos da IA.
Instituições com capacidade e interessadas em contribuir com o governo nessa caminhada não faltam na sociedade brasileira. A questão é que avançamos muito mais na elaboração da lei do que nesse passo que idealmente deveria ser dado antes, de fazer o diagnóstico da situação.
ConJur — Faz sentido criar uma lei geral da IA no Brasil hoje?
Ciro Torres Freitas — A criação de leis gerais sobre IA vem se consolidando como tendência no contexto internacional, até como ilustram os exemplos recentes da União Europeia, do estado de Colorado, nos Estados Unidos, e de outros países que vêm seguindo esse caminho.
Mas a verdade é que, antes disso, muitos países já continham previsões legais específicas, ou mesmo leis com escopo mais reduzido sobre IA. A Espanha é um exemplo: lá, em determinada lei, há uma previsão de que decisões tomadas pelo Estado com o uso de IA precisam ter alguns critérios de transparência e accountability.
A China é um outro exemplo, pois tem algumas leis sobre IA em contextos específicos, como criação de conteúdo conhecido como deep synthesis (o popular deepfake). São mais de 30 países hoje que já têm leis federais em alguma medida tratando de IA.
Ter uma lei geral no Brasil não seria um problema se estivessem claros os impactos dessa tecnologia na nossa sociedade e o legislador pudesse endereçar adequadamente, na norma, os efeitos adversos e os benefícios da tecnologia.
Sem esse diagnóstico, faz mais sentido iniciar a regulamentação remediando aquelas situações mais prementes e evidentes de forma pontual — seja pela alteração de leis já existentes, seja pela edição de novas normas focando em temas específicos. Mas o legislador brasileiro já se decidiu pelo caminho de uma lei geral. Essa decisão já está tomada e dificilmente será revertida.
ConJur — A criação de leis gerais costuma ser um bom caminho na área de tecnologia?
Ciro Torres Freitas — Na tradição legislativa brasileira, não há uma constante de criação de leis gerais sobre tecnologias. Normalmente, as grandes questões jurídicas trazidas com novas tecnologias são endereçadas pontualmente em outras normas que já existem.
O laser, por exemplo, é uma tecnologia amplamente utilizada, desde finalidades básicas de entretenimento, como iluminação de ambientes ou canetas usadas para orientar apresentações, até aplicações muito sofisticadas no âmbito da Medicina e da Engenharia Aeroespacial. É uma tecnologia que traz vários benefícios e também sérios riscos. E nunca cogitamos, na história do Brasil, criar uma lei geral sobre essa tecnologia.
Existem leis específicas que regulamentam o uso dessa tecnologia em âmbitos específicos. E assim é com tantas outras tecnologias que foram surgindo ao longo dos anos. Não é da cultura brasileira criar leis gerais sobre tecnologias. Isso é algo bastante incomum.
Então, isso também é um motivo do questionamento do porquê de termos tanto apetite em sair do zero — da situação de não ter lei nenhuma sobre IA — para um passo inicial de ter uma lei geral com aplicação ampla e escopo extremamente abrangente.
A Lei Geral de Proteção de Dados Pessoais (LGPD) e o Marco Civil da Internet (MCI) são leis relacionadas à área da tecnologia, mas não são leis gerais sobre uma tecnologia. A LGPD versa sobre o uso de dados pessoais, não necessariamente sobre um tipo de tecnologia. Ela tem, sim, um escopo superamplo e transversal, mas não é uma lei que versa sobre tecnologia.
O MCI não é uma lei tão ampla. Ele versa sobre alguns aspectos do uso da internet. E, na minha concepção, a internet não é propriamente uma tecnologia. A internet está mais próxima de ser um ambiente formado pelo uso de algumas tecnologias, alguns equipamentos e pelo componente humano. Todos esses elementos compõem o que hoje conhecemos como internet, um conjunto de redes. Mas não pode ser equiparada a uma tecnologia como a IA.
ConJur — A experiência europeia deve ser levada em conta no debate sobre regulamentação da IA no Brasil?
Ciro Torres Freitas — O modelo regulatório europeu, orientado principalmente para os direitos humanos, atualmente tem um protagonismo sobre muitos países. É algo conhecido como Efeito Bruxelas: as normas feitas na União Europeia acabam se replicando em outros países. Isso se aplica, inclusive, ao Brasil. A LGPD é um exemplo muito claro disso — é bastante inspirada no regulamento europeu de proteção de dados.
Não devemos importar integralmente o modelo europeu. Até porque, em matéria de IA, um modelo muito orientado para a proteção dos direitos das pessoas afetadas pelos sistemas pode acabar inibindo excessivamente os benefícios e os potenciais da tecnologia, que não são poucos.
A IA é usada hoje na área da Medicina, da acessibilidade, da educação. São benefícios incontáveis e que, talvez, sem o uso dessas tecnologias, a civilização demorasse muitos anos para atingir. Importar totalmente o modelo europeu não é o ideal.
Agora, se partirmos da premissa de que queremos e teremos no Brasil uma lei geral de IA, o regulamento europeu é uma referência que não pode ser ignorada — idealmente com as ressalvas e os ajustes necessários para adequá-lo à realidade brasileira. Existem aspectos e definições, como a abordagem baseada em risco, que podem ser aproveitados.
O melhor seria, na minha visão, se pudéssemos testemunhar a efetiva aplicação do regulamento europeu de IA antes de termos uma lei geral em vigor no Brasil. Isso nos permitiria avaliar melhor o que seguir e o que fazer diferente, sem prejuízo de, nesse meio-tempo, eventualmente editarmos normas mais específicas ou atualizarmos leis já em vigor para endereçar os pontos mais prementes.
ConJur — As mudanças constantes dos sistemas de IA causam o risco de uma eventual regulamentação ficar obsoleta em pouco tempo?
Ciro Torres Freitas — Esse é um dos riscos inerentes à regulamentação de novas tecnologias. E ficou muito evidente isso durante o trâmite legislativo do regulamento europeu de IA. Foram feitas inúmeras mudanças no texto ao longo do processo, até o último momento. Conforme a tecnologia ia se tornando mais avançada, o legislador da União Europeia fazia uma alteração no texto para refletir e compreender isso na iniciativa legislativa.
Como as aplicações e as finalidades de uso dos sistemas de IA são muito amplas, virtualmente ilimitadas, o legislador precisa ter um cuidado ao criar as normas sobre essa tecnologia. Esse cuidado pode se dar, por exemplo, por meio da criação de normas mais principiológicas ou por meio de previsões legais que guardem alguma abertura para a futura atualização de alguns aspectos via regulamentação. Existem mecanismos para o legislador endereçar esse aspecto da IA ao editar uma norma.
Um professor chamado David Collingridge publicou em 1980 o livro The Social Control of Technology, um marco na regulação de novas tecnologias. Nessa obra, ele diz que é mais fácil regular com sucesso uma tecnologia quando ela ainda é nova. Só que, provavelmente, essa tecnologia ainda não mostrou todas as suas consequências indesejáveis. Então, a lei não vai conseguir endereçar esses pontos.
A alternativa seria aguardar e ver a tecnologia mostrar essas consequências indesejáveis. Mas, ao aguardar, é possível que essa tecnologia se torne tão consolidada e impregnada na sociedade que ficaria mais difícil fazer a regulação, por conta das resistências sociais.
Esse dilema ilustra bem a complexidade de regular novas tecnologias. O que se propõe aos legisladores confrontados com essa situação é que eles fujam de situações extremas. O ideal é buscar sempre uma atuação legislativa mais equilibrada.
ConJur — Quais problemas causados pela IA já possuem soluções dentro da legislação atual?
Ciro Torres Freitas — Embora o Brasil não tenha, pelo menos no âmbito federal, leis efetivamente sobre IA, possui várias normas que se já aplicam a diferentes circunstâncias do uso dessa tecnologia e que, eventualmente, podem ser atualizadas para endereçá-lo de forma mais adequada.
No contexto de uma relação de consumo, já existe no CDC a previsão de que os fornecedores de produtos ou serviços estão sujeitos a uma responsabilidade que não depende de culpa. Eles estão sujeitos a sanções administrativas em caso de defeitos e são demandados a fornecer informações adequadas sobre os riscos gerados pelos produtos e serviços. Mesmo nas relações que não sejam de consumo, há normas no Código Civil a respeito da responsabilidade das partes contratantes.
A última versão do PL 2.338/2023, quando trata da responsabilidade civil, prevê que, no âmbito das relações de consumo, as hipóteses de responsabilização dos agentes de IA sujeitam-se ao regime do CDC, enquanto as demais hipóteses ficam sujeitas ao regime do Código Civil. Então, o texto atual não introduz praticamente nada de novo sobre responsabilidade civil. Ele simplesmente faz referência a normas que já existem a respeito do tema.
Se pensarmos em um sistema de IA que utilize dados pessoais — seja no seu treinamento, seja no seu funcionamento —, o responsável por esse sistema precisa seguir a LGPD, uma norma que estabelece as condições para o uso de dados pessoais, uma série de obrigações para quem faz esse uso, vários direitos aos titulares e sanções bastante significativas para hipóteses de descumprimento das suas previsões. Isso já está garantido no ordenamento jurídico brasileiro.
Existem também várias exposições relevantes da Constituição. Ela resguarda direitos fundamentais que precisam ser observados em quaisquer relações humanas, como a inviolabilidade da vida privada, da honra, a tutela da saúde e a dignidade da pessoa humana. São direitos que protegem ou podem proteger aqueles que estiverem expostos a sistemas de IA.
Claro, essas normas podem não ser suficientes para reger todas as situações envolvendo a IA. Mas, sem dúvida, já conferem algum grau de proteção, que é importante.
ConJur — Quais problemas pontuais causados pela IA podem ser corrigidos com normas já existentes?
Ciro Torres Freitas — Quanto a leis que podem ser ajustadas pontualmente para endereçar situações envolvendo IA, há o exemplo da Lei de Direitos Autorais. Qualquer modalidade de uso de obras autorais protegidas depende de autorização prévia do criador. A lei traz algumas exceções a essa regra, mas elas não compreendem, por exemplo, o uso das obras protegidas para fins de treinamento de sistemas de IA.
Isso é algo que pode ser alterado na própria Lei de Direitos Autorais, seja para autorizar esse uso ou para estabelecer as condições para que ele venha a ocorrer. A solução no âmbito da própria lei é mais apropriada do que transferir essa discussão para uma outra norma.
O Tribunal Superior Eleitoral, por meio de resoluções, também criou algumas regras específicas relacionadas ao uso de IA no contexto de campanha eleitoral. Em vez de aguardar ou promover uma lei geral que abordasse o uso de IA também durante o período ou para fins eleitorais, o TSE editou uma regulamentação sobre esse aspecto, sem a necessidade de criar uma lei geral.
ConJur — Para além da falha conceitual, quais são os principais problemas do texto do PL 2.338/2023?
Ciro Torres Freitas — A iniciativa de legislar sobre IA é positiva, independentemente do formato da lei ou do ritmo do trâmite legislativo. Tem muita gente séria e comprometida com essa pauta, e isso é algo elogiável. O Brasil não pode ficar fora dessa discussão a respeito da regulamentação da IA, que já é uma realidade no nosso cotidiano. As críticas devem ser sempre construtivas e propositivas.
A última versão do PL 2.338/2023 diz que não constitui ofensa aos direitos autorais o uso automatizado de conteúdo protegido para o desenvolvimento de sistemas de IA, mas apenas por organizações e instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e educacionais, desde que sem fins comerciais, além de outras condições e critérios ali previstos. Para as demais hipóteses, o texto prevê a criação de um ambiente regulatório experimental, chamado de sandbox, para dispor sobre a remuneração dos titulares dos direitos autorais por parte dos agentes de IA.
Na minha visão, o ideal seria resolver desde já essa situação — seja por meio da lei geral ou, idealmente, pela via de atualização da Lei de Direitos Autorais. Não resolve o nosso problema proibir empresas que não sejam essas instituições mencionadas e que tenham finalidade comercial de utilizar obras protegidas no treinamento de sistemas de IA, até que se venha a resolver no futuro uma forma de remuneração dos titulares desses direitos.
Isso coloca o Brasil em uma situação sensível. Enquanto, em outros países, obras protegidas — como matérias jornalísticas, fotografias, pinturas, obras de arte e músicas — já estão sendo utilizadas no treinamento desses sistemas, todo esse material em língua portuguesa não poderia, de forma nenhuma, ser utilizado por empresas com fins comerciais, até que se venha a definir, depois de uma experiência em um ambiente regulatório experimental, como a remuneração poderia ocorrer.
Isso pode acabar colocando o Brasil em uma situação marginal em relação à IA, principalmente generativa, na medida em que o conteúdo redigido em língua portuguesa teria uma restrição muito grande à utilização para o treinamento dos sistemas. Isso compromete claramente o resultado gerado por esses sistemas.
Enquanto outros países seguiriam utilizando plenamente essas ferramentas, o Brasil teria esse óbice legislativo para isso. Não estou aqui defendendo que o uso dessas obras protegidas seja feito de forma indiscriminada, sem qualquer condição ou de remuneração aos titulares. Mas precisam ser resolvidas desde já, na nossa legislação, as condições para que esse uso possa ser feito.
O texto atual do PL 2.338/2023 não faz isso. Ele relega a um momento futuro e incerto a solução para essa questão. Esse ponto merece aprimoramento.