Para o causídico, tudo o que o ChatGPT pode produzir em termos de argumentação jurídica é fabulação, e que a análise de provas em um caso jurídico depende de fatores humanos.

27 de abril de 2023

O advogado Fábio Ribeiro destacou que “tudo o que o ChatGPT pode produzir em termos de argumentação jurídica é fabulação”.(Imagem: Freepik)


O advogado Fábio de Oliveira Ribeiro busca no CNJ impedir juízes de usarem o ChatGPT em decisões. 

O causídico é o mesmo que, recentemente, foi multado pelo TSE ao apresentar uma “fábula” escrita juntamente com a inteligência artificial em petição para ingresso como amicus curiae. 

Fábio Ribeiro, que tem 58 anos, afirma ao Migalhas que não é contra o uso de tecnologia, mas que é preocupante a invasão da inteligência artificial na arena jurídica, o que poderia “ter efeitos negativos duradouros”. 

Ao Migalhas, Fábio Ribeiro destacou que “tudo o que o ChatGPT pode produzir em termos de argumentação jurídica é fabulação”, e que a análise de provas em um caso jurídico depende de fatores humanos, que nunca poderão ser dominados por IA (como a interpretação da linguagem coloquial de uma cultura específica, a existência de contradições entre fatos que emanam de documentos e fatos referidos em depoimentos, a expressão facial da testemunha durante a coleta do depoimento pode levar o juiz a dar maior ou menor credibilidade ao que ela disse, etc). 

Ele ainda afirma que algoritmos são produzidos para dar lucro a empresas privadas, e não para atender ao interesse público. 

Punição no TSE

No último dia 13, o advogado apresentou petição solicitando o ingresso como amicus curiae em processo que discute suposto abuso de poder político por Jair Bolsonaro no episódio da reunião com embaixadores. 

Após ilustrar sua petição com a “fábula” formulada em uma conversa entre o advogado e o ChatGPT, o próprio advogado afirma que “o TSE obviamente não tem obrigação de seguir a recomendação de uma Inteligência Artificial”, o que seria “extremamente inadequado”.

O causídico explicou que utilizou o vocábulo “fábula” porque, no processo em que buscava o ingresso, foi decretado sigilo total das provas colhidas contra Bolsonaro. Portanto, ele não poderia usar o ChatGPT para uma análise rigorosa do caso, mas sim com base em parâmetros genéricos (conhecidos através da imprensa).

Ele afirma que os parâmetros observados pela OpenAI (empresa que criou o ChatGPT) são os mesmos que devem ser levados em conta no processo: de que a legislação permite impedir quem atenta contra a democracia, por exemplo, ou de que a preservação da democracia pode estar comprometida caso o cidadão (no caso, Bolsonaro) possa novamente disputar as eleições. 

No entanto, observa que, se a OpenAI fosse consultada por um defensor do ex-presidente, o resultado da consulta poderia ser diferente.

Ele concluiu destacando a importância da “inteligência emocional” da Constituição.

“O amicus do autor entende que o processo deve ser julgado procedente, mas não porque a Inteligência Artificial recomendou a inelegibilidade de Jair Bolsonaro. (…) Quem recomenda a inelegibilidade dele é a Inteligência Emocional da constituição cidadã de um país cujo regime político democrática será aniquilado se ele voltar à presidência ou ao parlamento.”

Por utilizar a fábula com o ChatGPT em sua petição, o advogado acabou multado por litigância de má-fé. 

Ministro Benedito, do TSE, destacou que, sendo o peticionante um causídico, “presume-se seu pleno conhecimento da inadequação do material apresentado como suporte para intervir no feito” como amicus curiae, e indeferiu o pedido. 

Ao Migalhas, o advogado explicou que sua intenção com a petição foi justamente provocar um maior debate sobre o uso do ChatGPT na arena jurídica. “Esse propósito seria atendido com ou sem o deferimento do meu pedido de ingresso no processo que está em andamento no TSE.”

Segundo Fábio, o indeferimento (e a viralização da decisão) proporcionou a ele a oportunidade de usar o episódio para instruir o processo que move no CNJ com o objetivo de proibir juízes de usarem o ChatGPT para proferirem decisões.

Processo no CNJ

Desde janeiro, o advogado busca, no CNJ, impedir que juízes utilizem a inteligência artificial em decisões.

Ao Migalhas, ele explicou que, desde que o ChatGPT foi lançado, realizou vários testes, em inglês e português, utilizando o recurso, tanto utilizando questões jurídicas quanto abordando temas tecnológicos, políticos, filosóficos e envolvendo teoria do conhecimento. E que, nessa experiência, percebeu falhas graves nas repostas do sistema.

“O Direito é uma ciência humana que se destina a garantir a distribuição da melhor Justiça humana possível. Isso exclui o uso de IA para argumentar e/ou decidir. Pelo menos foi isso o que eu concluí após vários testes através dos quais verifiquei falhas graves nas repostas do ChatGPT. Isso está fartamente documentado na análise dos resultados dos testes que eu fiz.”

No Conselho houve indeferimento da liminar pelo relator, o conselheiro João Paulo Schoucair. Mas ele encaminhou os autos para Comissão de Tecnologia da Informação e Inovação, presidida pelo conselheiro Luiz Fernando Bandeira de Mello Filho, e o conselheiro determinou que o Departamento de Tecnologia da Informação e Comunicação ofereça manifestação técnica, “à luz dos atos normativos e regulamentares internos vigentes que versam sobre a temática – especificamente, a Resolução n. 332, de 21 de agosto de 2020, e a Portaria n. 271, de 4 de dezembro de 2020”. 

“Justamente porque me puniu o TSE abriu caminho para o CNJ avaliar com mais cuidado meu requerimento”, disse o advogado.

“Ao recusar uma ‘fábula’ composta pelo ChatGPT no caso Bolsonaro, o TSE criou um procedente que pode ser utilizado em outros processos tanto para impedir advogados de usarem a inteligência artificial quanto para coibir o uso dela pelos juízes.”

Ele reiterou que “os processos dos cidadãos brasileiros devem ser julgados por seres humanos e não por inteligência artificial, e o Judiciário não pode sorrateiramente criar duas classes de cidadãos (uns que terão seus processos julgados por robôs e outros nos quais os robôs não poderão atuar)”. 

Após o episódio no TSE, ele enviou novo documento ao CNJ anexando documentos que comprovam os fatos.

Processo: 0000416-89.2023.2.00.0000

Ele reforçou ao Migalhas seu inconformismo com relação ao uso da IA no Direito. 

“Eu fico realmente assustado quando vejo o mundo em que eu vivo se entregar à utopia algorítmica. Os algoritmos são produzidos para dar lucro para empresas privadas e não para atender ao interesse público. Eles são propriedades privada de empresários gananciosos que lentamente estendem seu poder dentro do Estado inclusive para capturar imensas somas de dinheiro públicas. Se os processos judiciais forem decididos por inteligência artificial, nunca será possível provar que ocorreu uma injustiça por causa de um viés de programação (ninguém vê o que está dentro da caixa preta). Mas a parcialidade de um juiz humano pode ser detectada e eventualmente provada levando a anulação de uma decisão parcial.

A justiça humana é falha, sem dúvidas, mas ela não é estruturalmente criada para parecer perfeita como uma inteligência artificial (nem para esconder suas falhas como o ChatGPT), nem tampouco desenhada para funcionar de uma maneira que ninguém conhece. Eu acredito que chegou o momento de bater o pé e dizer não. Não, a inteligência artificial não deve penetrar na arena legal para proferir decisões. As decisões judiciais devem ser proferidas por seres humanos para seres humanos.”

Processo no CNMP

Processo semelhante foi movido pelo advogado no CNMP. No entanto, naquele conselho, o relator indeferiu o pedido, decisão da qual ele recorreu.

Processo: 1.00085/2023-10

Fonte: https://www.migalhas.com.br/quentes/385446/advogado-busca-cnj-para-impedir-juizes-de-usarem-chatgpt-em-decisoes