Ao adotar ferramentas de inteligência artificial, o Ministério Público brasileiro deve optar por soluções que garantam o isolamento dos dados com relação ao repositório central, de modo que as informações compartilhadas não se misturem com outros repositórios.
15 de novembro de 2023
A ideia é dos conselheiros Rodrigo Badaró e Moacyr Rey Filho, que encaminharam ao Conselho Nacional do Ministério Público uma proposta de recomendação para tratar do uso de ferramentas como o ChatGPT no dia a dia de trabalho da instituição.
A recomendação decorre de um pedido feito ao órgão pelo advogado Fábio de Oliveira Ribeiro, que visou proibir promotores e procuradores brasileiros de recorrer ao ChatGPT para elaborar ou fundamentar denúncias, pedidos de arquivamento e outras manifestações.
Como mostrou a revista eletrônica Consultor Jurídico, Badaró pediu manifestações aos MPs. As respostas foram no sentido de que a IA pode ser benéfica para o trabalho, mas deve ser adotada com as devidas cautelas, especialmente quanto à custódia de dados.
O documento enviado à presidência do CNMP tem caráter principiológico e habilitador, e não prescritivo e restritivo. A ideia é estabelecer premissas básicas e gerais para implementação do uso de IA, já que qualquer regulação estrita pode ser ineficiente e impedir a inovação.
“É inquestionável que qualquer tecnologia traz consigo riscos, e é importante conhecê-los, monitorá-los e mitigá-los. No entanto, é essencial entender que o foco das normas regulatórias não deve se restringir a evidenciá-los. Diante dos inúmeros benefícios a serem alcançadas com o uso correto dessas ferramentas, o objetivo deve ser o de maximizar os ganhos e minimizar as possíveis ameaças”, diz o documento.
A principal recomendação é que as ferramentas adotadas funcionem em datacenters, provedores de serviço de nuvem ou, ainda, através de APIs que garantam o isolamento dos dados da organização com relação ao repositório central da inteligência artificial.
Isso garantirá que as informações usadas pelos membros do MP na ferramenta não se misturarão aos dados centrais do programa, nem serão usados para treiná-lo, correndo o risco de serem repassados ou replicados para usuários externos.
A proposta de recomendação ainda trata de avaliação dos fornecedores dessas ferramentas, de investimento em pesquisa e desenvolvimento da IA e de estabelecimento de regulamentações flexíveis que apoiem e ofereçam suporte para a adoção segura e responsável dessas ferramentas.
Fonte: Consultor Jurídico