Posts

Para o causídico, tudo o que o ChatGPT pode produzir em termos de argumentação jurídica é fabulação, e que a análise de provas em um caso jurídico depende de fatores humanos.

27 de abril de 2023

O advogado Fábio Ribeiro destacou que “tudo o que o ChatGPT pode produzir em termos de argumentação jurídica é fabulação”.(Imagem: Freepik)


O advogado Fábio de Oliveira Ribeiro busca no CNJ impedir juízes de usarem o ChatGPT em decisões. 

O causídico é o mesmo que, recentemente, foi multado pelo TSE ao apresentar uma “fábula” escrita juntamente com a inteligência artificial em petição para ingresso como amicus curiae. 

Fábio Ribeiro, que tem 58 anos, afirma ao Migalhas que não é contra o uso de tecnologia, mas que é preocupante a invasão da inteligência artificial na arena jurídica, o que poderia “ter efeitos negativos duradouros”. 

Ao Migalhas, Fábio Ribeiro destacou que “tudo o que o ChatGPT pode produzir em termos de argumentação jurídica é fabulação”, e que a análise de provas em um caso jurídico depende de fatores humanos, que nunca poderão ser dominados por IA (como a interpretação da linguagem coloquial de uma cultura específica, a existência de contradições entre fatos que emanam de documentos e fatos referidos em depoimentos, a expressão facial da testemunha durante a coleta do depoimento pode levar o juiz a dar maior ou menor credibilidade ao que ela disse, etc). 

Ele ainda afirma que algoritmos são produzidos para dar lucro a empresas privadas, e não para atender ao interesse público. 

Punição no TSE

No último dia 13, o advogado apresentou petição solicitando o ingresso como amicus curiae em processo que discute suposto abuso de poder político por Jair Bolsonaro no episódio da reunião com embaixadores. 

Após ilustrar sua petição com a “fábula” formulada em uma conversa entre o advogado e o ChatGPT, o próprio advogado afirma que “o TSE obviamente não tem obrigação de seguir a recomendação de uma Inteligência Artificial”, o que seria “extremamente inadequado”.

O causídico explicou que utilizou o vocábulo “fábula” porque, no processo em que buscava o ingresso, foi decretado sigilo total das provas colhidas contra Bolsonaro. Portanto, ele não poderia usar o ChatGPT para uma análise rigorosa do caso, mas sim com base em parâmetros genéricos (conhecidos através da imprensa).

Ele afirma que os parâmetros observados pela OpenAI (empresa que criou o ChatGPT) são os mesmos que devem ser levados em conta no processo: de que a legislação permite impedir quem atenta contra a democracia, por exemplo, ou de que a preservação da democracia pode estar comprometida caso o cidadão (no caso, Bolsonaro) possa novamente disputar as eleições. 

No entanto, observa que, se a OpenAI fosse consultada por um defensor do ex-presidente, o resultado da consulta poderia ser diferente.

Ele concluiu destacando a importância da “inteligência emocional” da Constituição.

“O amicus do autor entende que o processo deve ser julgado procedente, mas não porque a Inteligência Artificial recomendou a inelegibilidade de Jair Bolsonaro. (…) Quem recomenda a inelegibilidade dele é a Inteligência Emocional da constituição cidadã de um país cujo regime político democrática será aniquilado se ele voltar à presidência ou ao parlamento.”

Por utilizar a fábula com o ChatGPT em sua petição, o advogado acabou multado por litigância de má-fé. 

Ministro Benedito, do TSE, destacou que, sendo o peticionante um causídico, “presume-se seu pleno conhecimento da inadequação do material apresentado como suporte para intervir no feito” como amicus curiae, e indeferiu o pedido. 

Ao Migalhas, o advogado explicou que sua intenção com a petição foi justamente provocar um maior debate sobre o uso do ChatGPT na arena jurídica. “Esse propósito seria atendido com ou sem o deferimento do meu pedido de ingresso no processo que está em andamento no TSE.”

Segundo Fábio, o indeferimento (e a viralização da decisão) proporcionou a ele a oportunidade de usar o episódio para instruir o processo que move no CNJ com o objetivo de proibir juízes de usarem o ChatGPT para proferirem decisões.

Processo no CNJ

Desde janeiro, o advogado busca, no CNJ, impedir que juízes utilizem a inteligência artificial em decisões.

Ao Migalhas, ele explicou que, desde que o ChatGPT foi lançado, realizou vários testes, em inglês e português, utilizando o recurso, tanto utilizando questões jurídicas quanto abordando temas tecnológicos, políticos, filosóficos e envolvendo teoria do conhecimento. E que, nessa experiência, percebeu falhas graves nas repostas do sistema.

“O Direito é uma ciência humana que se destina a garantir a distribuição da melhor Justiça humana possível. Isso exclui o uso de IA para argumentar e/ou decidir. Pelo menos foi isso o que eu concluí após vários testes através dos quais verifiquei falhas graves nas repostas do ChatGPT. Isso está fartamente documentado na análise dos resultados dos testes que eu fiz.”

No Conselho houve indeferimento da liminar pelo relator, o conselheiro João Paulo Schoucair. Mas ele encaminhou os autos para Comissão de Tecnologia da Informação e Inovação, presidida pelo conselheiro Luiz Fernando Bandeira de Mello Filho, e o conselheiro determinou que o Departamento de Tecnologia da Informação e Comunicação ofereça manifestação técnica, “à luz dos atos normativos e regulamentares internos vigentes que versam sobre a temática – especificamente, a Resolução n. 332, de 21 de agosto de 2020, e a Portaria n. 271, de 4 de dezembro de 2020”. 

“Justamente porque me puniu o TSE abriu caminho para o CNJ avaliar com mais cuidado meu requerimento”, disse o advogado.

“Ao recusar uma ‘fábula’ composta pelo ChatGPT no caso Bolsonaro, o TSE criou um procedente que pode ser utilizado em outros processos tanto para impedir advogados de usarem a inteligência artificial quanto para coibir o uso dela pelos juízes.”

Ele reiterou que “os processos dos cidadãos brasileiros devem ser julgados por seres humanos e não por inteligência artificial, e o Judiciário não pode sorrateiramente criar duas classes de cidadãos (uns que terão seus processos julgados por robôs e outros nos quais os robôs não poderão atuar)”. 

Após o episódio no TSE, ele enviou novo documento ao CNJ anexando documentos que comprovam os fatos.

Processo: 0000416-89.2023.2.00.0000

Ele reforçou ao Migalhas seu inconformismo com relação ao uso da IA no Direito. 

“Eu fico realmente assustado quando vejo o mundo em que eu vivo se entregar à utopia algorítmica. Os algoritmos são produzidos para dar lucro para empresas privadas e não para atender ao interesse público. Eles são propriedades privada de empresários gananciosos que lentamente estendem seu poder dentro do Estado inclusive para capturar imensas somas de dinheiro públicas. Se os processos judiciais forem decididos por inteligência artificial, nunca será possível provar que ocorreu uma injustiça por causa de um viés de programação (ninguém vê o que está dentro da caixa preta). Mas a parcialidade de um juiz humano pode ser detectada e eventualmente provada levando a anulação de uma decisão parcial.

A justiça humana é falha, sem dúvidas, mas ela não é estruturalmente criada para parecer perfeita como uma inteligência artificial (nem para esconder suas falhas como o ChatGPT), nem tampouco desenhada para funcionar de uma maneira que ninguém conhece. Eu acredito que chegou o momento de bater o pé e dizer não. Não, a inteligência artificial não deve penetrar na arena legal para proferir decisões. As decisões judiciais devem ser proferidas por seres humanos para seres humanos.”

Processo no CNMP

Processo semelhante foi movido pelo advogado no CNMP. No entanto, naquele conselho, o relator indeferiu o pedido, decisão da qual ele recorreu.

Processo: 1.00085/2023-10

Fonte: https://www.migalhas.com.br/quentes/385446/advogado-busca-cnj-para-impedir-juizes-de-usarem-chatgpt-em-decisoes

“Robôs podem ser programados para ajudar juízes e advogados a realizar tarefas específicas, como classificar documentos e analisar dados legais. No entanto, a substituição completa de juízes e advogados por robôs é considerada improvável, pois a tomada de decisão judicial envolve muito mais do que apenas processar informações. Os juízes e os advogados têm a responsabilidade de aplicar as leis e os princípios jurídicos às situações únicas que enfrentam, algo que os robôs ainda não podem fazer de maneira equivalente”.

16 de janeiro de 2023
Apesar dos avanços tecnológicos, a possibilidade de um advogado ou juiz robô ainda é improvável segundo especialistas
Reprodução

Essa foi a resposta do ChatGPT — protótipo de um chatbot com inteligência artificial  especializado em diálogos desenvolvido pela OpenAI — ao questionamento que motivou esta reportagem: robôs podem substituir juízes e advogados? Até que ponto?

E a explicação do robô — apesar de genérica e simplória perto da linha de pensamento dos especialistas consultados pela ConJur sobre o tema — não soa absurda e incoerente.

O ChatGPT é considerado um divisor de águas em matéria de inteligência artificial, e seus impactos e aplicações ainda são incertos. 

Um dos estudiosos sobre a aplicação da inteligência artificial no universo do Direito é o juiz e professor de Direito Processual Penal na Universidade Federal de Santa Catarina Alexandre Morais da Rosa. Ele é autor, em parceria com Daniel Boeing, do livro Ensinando um robô a julgar (EMais) e acredita que robôs não podem substituir juízes e advogados, mas podem ajudar a dinamizar a prestação jurisdicional. 

“Propomos a automatização das atividades repetitivas e burocráticas que podem ser automatizadas. Não mais do que isso. Neste sentido, a aplicabilidade de um preceito legal ou de uma razão de decisão (forte ou fraca) a um determinado caso, sendo mais do que a simples repetição, fica fora do que pode ser automatizado”, escreveu em artigo publicado na ConJur em resposta a uma crítica do jurista Lenio Streck sobre a obra. 

Streck, por sua vez, é um crítico do tema por acreditar que a possibilidade de aplicação da inteligência artificial sofre de um problema conceitual intransponível: afinal, quem programa o robô?

“É como discutir golpe de Estado na democracia. Uma contradição insolúvel. Direitos das pessoas têm que ser julgados por pessoas. Se a humanidade não quer julgar e quer deixar que máquinas façam isso em seu lugar, teremos que extinguir todas as carreiras. Será que as distopias não nos ensinam nada? É um direito fundamental de qualquer pessoa ter examinado seu direito — e isso desde a aurora da civilização — julgado por pessoas. Esse é o ponto. Há um direito fundamental nesse sentido”, sustenta. 

O advogado e diretor acadêmico do Instituto de Direito e Inteligência Artificial, Dierle Nunes, acredita que o ChatGPT é uma aplicação muito interessante para otimização de determinadas atividades. “Tem um condão revolucionário por gerar textos com boa fundamentação”, explica. 

O estudioso cita casos em que trabalhos acadêmicos foram feitos usando a ferramenta para exemplificar o que o ChatGPT representa em termos de avanço e seu potencial, que pode ser tanto virtuoso como problemático. 

“A maioria das pessoas acha que um robô como esse pode substituir um profissional do Direito, mas isso não é possível. Todo modelo de inteligência artificial pode dar uma resposta muito específica e correta muito uma muito absurda. Sem supervisão humana a ferramenta perde muito da eficácia”, aponta. 

Funcionamento e consequências
O advogado e consultor especializado em Direito e novas tecnologias Omar Kaminski explica que os chamados chatbots nada mais são do que mecanismos de busca que se valem de inteligência artificial, e estão ficando cada vez mais aprimorados. 

Exemplo de resposta dada pelo ChatGPT
Reprodução

Kaminski acredita que ferramentas como o ChatGPT precisam de supervisão humana atualmente, mas talvez com o avanço da tecnologia se chegue ao ponto que o robô poderá “pensar” e agir por conta própria, baseando-se nos dados já disponíveis em seu acervo, ou em acervos acessíveis online. 

“Pois bem, estamos entre a cruz e a espada, inclusive com projetos de lei sobre inteligência artificial avançando. Se a resposta é sim, é só questão de (pouco) tempo com consequências disruptivas imprevisíveis, inclusive no quesito ético, moral e laboral. Se for não, é a hora de pensarmos em como criar limitações sem limitar a própria inovação tecnológica – se é que isto será possível”, pondera. 

O pesquisador do Centro de Inovação, Administração e Pesquisa do Judiciário da FGV Conhecimento José Leovigildo de Melo Coelho Filho, por sua vez, acredita que nenhum modelo de inteligência artificial irá substituir profissionais no Direito, mas irá otimizar o trabalho. “Máquina e humano trabalhando em conjunto acertam mais”, resume. 

O especialista explica que o que estamos vendo é um salto de desenvolvimento de um modelo de IA, mas que nem de longe tem a capacidade de análise de contexto e pensamento subjetivos dos humanos.

Ele acredita que, se usado de modo a diminuir a judicialização no país, os robôs são bem-vindos e podem auxiliar na busca por soluções de conflitos e elaboração de acordos. 

Desafio do milhão
Nos Estados Unidos, o uso de robôs no sistema de Justiça tem sido impulsionado por startups. Uma delas, a DoNotPay, criou uma ferramenta chamada “robot lawyer” — “advogado robô” em tradução livre —, que tem sido utilizado por pessoas para contestar e negociar multas de estacionamento.

A empresa se tornou notícia mundialmente por oferecer US$ 1 milhão (R$ 5,1 milhões) para quem utilizar o robô em um processo que seja admitido pela Suprema Corte dos Estados Unidos. 

Realidade fática
Apesar de todos os aspectos práticos e problemáticos do uso de inteligência artificial no sistema de Justiça, o Poder Judiciário já tem se movimentado para lidar com a evolução tecnológica.

Em dezembro do ano passado, o Supremo Tribunal Federal aprovou a criação da Assessoria de Inteligência Artificial em sua estrutura orgânica. 

A iniciativa tem como principal objetivo desenvolver novas soluções em inteligência artificial, aplicadas à prestação jurisdicional da corte. Atualmente, o STF dispoe de dois robôs — o Victor, utilizado desde 2017 para análise de temas de repercussão geral na triagem de recursos recebidos de todo país, e a Rafa, desenvolvida para integrar a Agenda 2030 da ONU ao STF.

Também está prevista a criação do Núcleo de Apoio aos Sistemas Judiciais, de forma a trazer mais segurança aos sistemas e aos usuários da plataforma STF Digital.

Levantamento do Conselho Nacional de Justiça aponta expressivo aumento do número de projetos de inteligência artificial no Poder Judiciário em 2022. A pesquisa identificou 111 projetos desenvolvidos ou em desenvolvimento nos tribunais.

Com isso, o número de iniciativas cresceu 171% em relação ao levantamento realizado em 2021, quando foram informados apenas 41 projetos. Houve também avanço no número de órgãos que possuem projetos de inteligência artificial.

Atualmente, 53 tribunais desenvolvem soluções com uso dessa tecnologia. Na pesquisa anterior, apenas 32 órgãos declararam ter iniciativas no tema. Juízes e advogados vão continuar sendo imprescindíveis para a democracia, mas é notório o avanço dos robôs.

*Por Rafa Santos – repórter da revista Consultor Jurídico.

Fonte: Revista Consultor Jurídico, 15 de janeiro de 2023, 9h45