O Brasil vem discutindo a criação de uma lei geral regulamentadora da inteligência artificial sem ter um diagnóstico satisfatório dos impactos dessa tecnologia no país. Não há um levantamento oficial sobre questões como os setores mais beneficiados, os ganhos proporcionados, os prejuízos e as ameaças. Sem isso, faz mais sentido alterar leis já existentes ou editar novas normas com foco em temas específicos.

2 de julho de 2024, 8h52

O advogado Ciro Torres Freitas (Spacca)

É o que diz o advogado Ciro Torres Freitas, especializado no tema, ele é crítico da ideia de estabelecer uma lei geral da IA no Brasil no cenário atual — o que é atualmente discutido no Congresso, por meio do Projeto de Lei 2.338/2023.

Para ele, a falta de um diagnóstico gera o risco de que a futura lei “seja insuficiente para mitigar os efeitos indesejados da IA” — como a discriminação algorítmica — e acabe “inibindo os potenciais benefícios dessa tecnologia” ou desencorajando o seu uso.

Segundo Freitas, conhecer os impactos causados pela IA é “algo fundamental para se definir prioridades, identificar lacunas na legislação atual e, a partir disso, delimitar o escopo de novas normas a serem criadas”. Como esse diagnóstico ainda não foi feito no país, ele defende que a regulamentação aconteça “remediando aquelas situações mais prementes e evidentes de forma pontual”.

“A lei não pode ser uma solução à procura de um problema. A lei deve vir para resolver situações concretas”, assinala o advogado. Na sua visão, uma lei geral da IA não seria um problema “se estivessem claros os impactos dessa tecnologia na nossa sociedade”.

Em entrevista à revista eletrônica Consultor Jurídico, Freitas ressaltou que é incomum no Brasil a criação de leis gerais sobre tecnologias. O caminho mais adotado é a regulamentação do seu uso “em âmbitos específicos”.

O advogado ainda explicou que alguns problemas causados pela IA já possuem soluções dentro da legislação atual — por exemplo, questões de responsabilidade civil já são resolvidas pelo Código de Defesa do Consumidor (CDC) e pelo Código Civil.

Por outro lado, ele acredita que algumas leis já existentes poderiam ser “ajustadas pontualmente para endereçar situações envolvendo IA”. Os problemas relacionados a obras protegidas usadas em treinamentos de sistemas de IA, por exemplo, poderiam ser corrigidos com alterações na Lei de Direitos Autorais.

Leia a seguir a entrevista:

ConJur — Está claro, no Brasil, quais problemas gerados pela IA precisam ser solucionados pela legislação?
Ciro Torres Freitas — Não há um diagnóstico satisfatório dos impactos da IA no nosso país. E é curioso porque o governo brasileiro lançou, em 2021, a Estratégia Brasileira de Inteligência Artificial, que serviria exatamente para nortear as ações do Estado em prol do desenvolvimento de uma série de ações relacionadas à IA.

Nesse documento há um capítulo exatamente sobre diagnóstico do uso da IA. Mas a verdade é que ali há pouquíssima coisa a respeito dos impactos concretos da IA na nossa sociedade. Em termos de problemas constatados, formas de prevenção e riscos versus benefícios, esse documento não traz praticamente nada.

Então, não há hoje, no Brasil, um levantamento oficial sobre questões como: quais são os setores que mais se beneficiam da IA; quais são os ganhos proporcionados; quais são os prejuízos; quais são as ameaças; etc.

Conhecer esses impactos é algo fundamental para se definir prioridades, identificar lacunas na legislação atual e, a partir disso, delimitar o escopo de novas normas a serem criadas.

É claro que alguns desses impactos podem ser comuns ao que se verifica em outras jurisdições, de outros países. Certas questões envolvendo IA são universais. Mas é bastante provável que também existam especificidades locais, que precisam ser refletidas em uma lei do nosso país. E a única forma de cobrirmos isso é por meio de um diagnóstico que ainda não existe.

ConJur — Quais são os principais problemas de discutir uma lei geral da IA sem um diagnóstico ou panorama sobre os problemas da tecnologia e as soluções pretendidas?
Ciro Torres Freitas — O principal problema é que o legislador acaba ficando exposto ao risco de criar uma lei que seja insuficiente para mitigar os efeitos indesejados da IA, e que também pode acabar involuntariamente inibindo os potenciais benefícios dessa tecnologia.

Quando uma lei não é concebida levando em conta as diferenças significativas sob os pontos de vista econômico e social existentes na população brasileira, ela pode não ser suficientemente adequada em relação à necessidade de mitigar, por exemplo, os vieses discriminatórios de sistemas de IA — a discriminação algorítmica.

Por outro lado, uma lei que não traga as ressalvas apropriadas para a nossa realidade local pode, por exemplo, desencorajar o uso da IA em procedimentos médicos, na medida em que venha a sujeitar o operador a um regime de responsabilidade mais severo do que o geral, mesmo que o método por ele utilizado seja comprovadamente melhor e gere resultados mais seguros e mais positivos para os pacientes em comparação a outras tecnologias.

Então, podem existir falhas legislativas em ambas as direções, se a lei não refletir a realidade da nossa sociedade. A lei não pode ser uma solução à procura de um problema. A lei deve vir para resolver situações concretas.

ConJur — Quem deve fazer esse diagnóstico?
Ciro Torres Freitas  Na medida em que o governo lançou uma Estratégia Brasileira de IA e se propôs a se valer desse documento para guiar suas ações em prol do desenvolvimento dessa tecnologia, esse diagnóstico deveria ser feito no contexto dessa iniciativa. Caberia, sim, ao governo pelo menos tomar a iniciativa de promover esse diagnóstico.

Lógico que o governo não precisa fazer isso sozinho. Ele pode se valer de parcerias com entidades de pesquisa, universidades e a própria sociedade civil. Não é uma tarefa que deve ser atribuída única e exclusivamente ao Estado. Mas cabe ao governo, na medida em que se propõe a criar normas de escopo tão amplo a respeito de algo tão relevante, ao menos liderar essa iniciativa de fazer um diagnóstico adequado sobre os impactos da IA.

Instituições com capacidade e interessadas em contribuir com o governo nessa caminhada não faltam na sociedade brasileira. A questão é que avançamos muito mais na elaboração da lei do que nesse passo que idealmente deveria ser dado antes, de fazer o diagnóstico da situação.

ConJur — Faz sentido criar uma lei geral da IA no Brasil hoje?
Ciro Torres Freitas — A criação de leis gerais sobre IA vem se consolidando como tendência no contexto internacional, até como ilustram os exemplos recentes da União Europeia, do estado de Colorado, nos Estados Unidos, e de outros países que vêm seguindo esse caminho.

Mas a verdade é que, antes disso, muitos países já continham previsões legais específicas, ou mesmo leis com escopo mais reduzido sobre IA. A Espanha é um exemplo: lá, em determinada lei, há uma previsão de que decisões tomadas pelo Estado com o uso de IA precisam ter alguns critérios de transparência e accountability.

A China é um outro exemplo, pois tem algumas leis sobre IA em contextos específicos, como criação de conteúdo conhecido como deep synthesis (o popular deepfake). São mais de 30 países hoje que já têm leis federais em alguma medida tratando de IA.

Ter uma lei geral no Brasil não seria um problema se estivessem claros os impactos dessa tecnologia na nossa sociedade e o legislador pudesse endereçar adequadamente, na norma, os efeitos adversos e os benefícios da tecnologia.

Sem esse diagnóstico, faz mais sentido iniciar a regulamentação remediando aquelas situações mais prementes e evidentes de forma pontual — seja pela alteração de leis já existentes, seja pela edição de novas normas focando em temas específicos. Mas o legislador brasileiro já se decidiu pelo caminho de uma lei geral. Essa decisão já está tomada e dificilmente será revertida.

ConJur  A criação de leis gerais costuma ser um bom caminho na área de tecnologia?
Ciro Torres Freitas — Na tradição legislativa brasileira, não há uma constante de criação de leis gerais sobre tecnologias. Normalmente, as grandes questões jurídicas trazidas com novas tecnologias são endereçadas pontualmente em outras normas que já existem.

O laser, por exemplo, é uma tecnologia amplamente utilizada, desde finalidades básicas de entretenimento, como iluminação de ambientes ou canetas usadas para orientar apresentações, até aplicações muito sofisticadas no âmbito da Medicina e da Engenharia Aeroespacial. É uma tecnologia que traz vários benefícios e também sérios riscos. E nunca cogitamos, na história do Brasil, criar uma lei geral sobre essa tecnologia.

Existem leis específicas que regulamentam o uso dessa tecnologia em âmbitos específicos. E assim é com tantas outras tecnologias que foram surgindo ao longo dos anos. Não é da cultura brasileira criar leis gerais sobre tecnologias. Isso é algo bastante incomum.

Então, isso também é um motivo do questionamento do porquê de termos tanto apetite em sair do zero — da situação de não ter lei nenhuma sobre IA — para um passo inicial de ter uma lei geral com aplicação ampla e escopo extremamente abrangente.

Lei Geral de Proteção de Dados Pessoais (LGPD) e o Marco Civil da Internet (MCI) são leis relacionadas à área da tecnologia, mas não são leis gerais sobre uma tecnologia. A LGPD versa sobre o uso de dados pessoais, não necessariamente sobre um tipo de tecnologia. Ela tem, sim, um escopo superamplo e transversal, mas não é uma lei que versa sobre tecnologia.

O MCI não é uma lei tão ampla. Ele versa sobre alguns aspectos do uso da internet. E, na minha concepção, a internet não é propriamente uma tecnologia. A internet está mais próxima de ser um ambiente formado pelo uso de algumas tecnologias, alguns equipamentos e pelo componente humano. Todos esses elementos compõem o que hoje conhecemos como internet, um conjunto de redes. Mas não pode ser equiparada a uma tecnologia como a IA.

ConJur — A experiência europeia deve ser levada em conta no debate sobre regulamentação da IA no Brasil?
Ciro Torres Freitas — O modelo regulatório europeu, orientado principalmente para os direitos humanos, atualmente tem um protagonismo sobre muitos países. É algo conhecido como Efeito Bruxelas: as normas feitas na União Europeia acabam se replicando em outros países. Isso se aplica, inclusive, ao Brasil. A LGPD é um exemplo muito claro disso — é bastante inspirada no regulamento europeu de proteção de dados.

Não devemos importar integralmente o modelo europeu. Até porque, em matéria de IA, um modelo muito orientado para a proteção dos direitos das pessoas afetadas pelos sistemas pode acabar inibindo excessivamente os benefícios e os potenciais da tecnologia, que não são poucos.

A IA é usada hoje na área da Medicina, da acessibilidade, da educação. São benefícios incontáveis e que, talvez, sem o uso dessas tecnologias, a civilização demorasse muitos anos para atingir. Importar totalmente o modelo europeu não é o ideal.

Agora, se partirmos da premissa de que queremos e teremos no Brasil uma lei geral de IA, o regulamento europeu é uma referência que não pode ser ignorada — idealmente com as ressalvas e os ajustes necessários para adequá-lo à realidade brasileira. Existem aspectos e definições, como a abordagem baseada em risco, que podem ser aproveitados.

O melhor seria, na minha visão, se pudéssemos testemunhar a efetiva aplicação do regulamento europeu de IA antes de termos uma lei geral em vigor no Brasil. Isso nos permitiria avaliar melhor o que seguir e o que fazer diferente, sem prejuízo de, nesse meio-tempo, eventualmente editarmos normas mais específicas ou atualizarmos leis já em vigor para endereçar os pontos mais prementes.

ConJur  As mudanças constantes dos sistemas de IA causam o risco de uma eventual regulamentação ficar obsoleta em pouco tempo?
Ciro Torres Freitas — Esse é um dos riscos inerentes à regulamentação de novas tecnologias. E ficou muito evidente isso durante o trâmite legislativo do regulamento europeu de IA. Foram feitas inúmeras mudanças no texto ao longo do processo, até o último momento. Conforme a tecnologia ia se tornando mais avançada, o legislador da União Europeia fazia uma alteração no texto para refletir e compreender isso na iniciativa legislativa.

Como as aplicações e as finalidades de uso dos sistemas de IA são muito amplas, virtualmente ilimitadas, o legislador precisa ter um cuidado ao criar as normas sobre essa tecnologia. Esse cuidado pode se dar, por exemplo, por meio da criação de normas mais principiológicas ou por meio de previsões legais que guardem alguma abertura para a futura atualização de alguns aspectos via regulamentação. Existem mecanismos para o legislador endereçar esse aspecto da IA ao editar uma norma.

Um professor chamado David Collingridge publicou em 1980 o livro The Social Control of Technology, um marco na regulação de novas tecnologias. Nessa obra, ele diz que é mais fácil regular com sucesso uma tecnologia quando ela ainda é nova. Só que, provavelmente, essa tecnologia ainda não mostrou todas as suas consequências indesejáveis. Então, a lei não vai conseguir endereçar esses pontos.

A alternativa seria aguardar e ver a tecnologia mostrar essas consequências indesejáveis. Mas, ao aguardar, é possível que essa tecnologia se torne tão consolidada e impregnada na sociedade que ficaria mais difícil fazer a regulação, por conta das resistências sociais.

Esse dilema ilustra bem a complexidade de regular novas tecnologias. O que se propõe aos legisladores confrontados com essa situação é que eles fujam de situações extremas. O ideal é buscar sempre uma atuação legislativa mais equilibrada.

ConJur  Quais problemas causados pela IA já possuem soluções dentro da legislação atual?
Ciro Torres Freitas — Embora o Brasil não tenha, pelo menos no âmbito federal, leis efetivamente sobre IA, possui várias normas que se já aplicam a diferentes circunstâncias do uso dessa tecnologia e que, eventualmente, podem ser atualizadas para endereçá-lo de forma mais adequada.

No contexto de uma relação de consumo, já existe no CDC a previsão de que os fornecedores de produtos ou serviços estão sujeitos a uma responsabilidade que não depende de culpa. Eles estão sujeitos a sanções administrativas em caso de defeitos e são demandados a fornecer informações adequadas sobre os riscos gerados pelos produtos e serviços. Mesmo nas relações que não sejam de consumo, há normas no Código Civil a respeito da responsabilidade das partes contratantes.

A última versão do PL 2.338/2023, quando trata da responsabilidade civil, prevê que, no âmbito das relações de consumo, as hipóteses de responsabilização dos agentes de IA sujeitam-se ao regime do CDC, enquanto as demais hipóteses ficam sujeitas ao regime do Código Civil. Então, o texto atual não introduz praticamente nada de novo sobre responsabilidade civil. Ele simplesmente faz referência a normas que já existem a respeito do tema.

Se pensarmos em um sistema de IA que utilize dados pessoais — seja no seu treinamento, seja no seu funcionamento —, o responsável por esse sistema precisa seguir a LGPD, uma norma que estabelece as condições para o uso de dados pessoais, uma série de obrigações para quem faz esse uso, vários direitos aos titulares e sanções bastante significativas para hipóteses de descumprimento das suas previsões. Isso já está garantido no ordenamento jurídico brasileiro.

Existem também várias exposições relevantes da Constituição. Ela resguarda direitos fundamentais que precisam ser observados em quaisquer relações humanas, como a inviolabilidade da vida privada, da honra, a tutela da saúde e a dignidade da pessoa humana. São direitos que protegem ou podem proteger aqueles que estiverem expostos a sistemas de IA.

Claro, essas normas podem não ser suficientes para reger todas as situações envolvendo a IA. Mas, sem dúvida, já conferem algum grau de proteção, que é importante.

ConJur  Quais problemas pontuais causados pela IA podem ser corrigidos com normas já existentes?
Ciro Torres Freitas — Quanto a leis que podem ser ajustadas pontualmente para endereçar situações envolvendo IA, há o exemplo da Lei de Direitos Autorais. Qualquer modalidade de uso de obras autorais protegidas depende de autorização prévia do criador. A lei traz algumas exceções a essa regra, mas elas não compreendem, por exemplo, o uso das obras protegidas para fins de treinamento de sistemas de IA.

Isso é algo que pode ser alterado na própria Lei de Direitos Autorais, seja para autorizar esse uso ou para estabelecer as condições para que ele venha a ocorrer. A solução no âmbito da própria lei é mais apropriada do que transferir essa discussão para uma outra norma.

O Tribunal Superior Eleitoral, por meio de resoluções, também criou algumas regras específicas relacionadas ao uso de IA no contexto de campanha eleitoral. Em vez de aguardar ou promover uma lei geral que abordasse o uso de IA também durante o período ou para fins eleitorais, o TSE editou uma regulamentação sobre esse aspecto, sem a necessidade de criar uma lei geral.

ConJur  Para além da falha conceitual, quais são os principais problemas do texto do PL 2.338/2023?
Ciro Torres Freitas — A iniciativa de legislar sobre IA é positiva, independentemente do formato da lei ou do ritmo do trâmite legislativo. Tem muita gente séria e comprometida com essa pauta, e isso é algo elogiável. O Brasil não pode ficar fora dessa discussão a respeito da regulamentação da IA, que já é uma realidade no nosso cotidiano. As críticas devem ser sempre construtivas e propositivas.

A última versão do PL 2.338/2023 diz que não constitui ofensa aos direitos autorais o uso automatizado de conteúdo protegido para o desenvolvimento de sistemas de IA, mas apenas por organizações e instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e educacionais, desde que sem fins comerciais, além de outras condições e critérios ali previstos. Para as demais hipóteses, o texto prevê a criação de um ambiente regulatório experimental, chamado de sandbox, para dispor sobre a remuneração dos titulares dos direitos autorais por parte dos agentes de IA.

Na minha visão, o ideal seria resolver desde já essa situação — seja por meio da lei geral ou, idealmente, pela via de atualização da Lei de Direitos Autorais. Não resolve o nosso problema proibir empresas que não sejam essas instituições mencionadas e que tenham finalidade comercial de utilizar obras protegidas no treinamento de sistemas de IA, até que se venha a resolver no futuro uma forma de remuneração dos titulares desses direitos.

Isso coloca o Brasil em uma situação sensível. Enquanto, em outros países, obras protegidas — como matérias jornalísticas, fotografias, pinturas, obras de arte e músicas — já estão sendo utilizadas no treinamento desses sistemas, todo esse material em língua portuguesa não poderia, de forma nenhuma, ser utilizado por empresas com fins comerciais, até que se venha a definir, depois de uma experiência em um ambiente regulatório experimental, como a remuneração poderia ocorrer.

Isso pode acabar colocando o Brasil em uma situação marginal em relação à IA, principalmente generativa, na medida em que o conteúdo redigido em língua portuguesa teria uma restrição muito grande à utilização para o treinamento dos sistemas. Isso compromete claramente o resultado gerado por esses sistemas.

Enquanto outros países seguiriam utilizando plenamente essas ferramentas, o Brasil teria esse óbice legislativo para isso. Não estou aqui defendendo que o uso dessas obras protegidas seja feito de forma indiscriminada, sem qualquer condição ou de remuneração aos titulares. Mas precisam ser resolvidas desde já, na nossa legislação, as condições para que esse uso possa ser feito.

O texto atual do PL 2.338/2023 não faz isso. Ele relega a um momento futuro e incerto a solução para essa questão. Esse ponto merece aprimoramento.

Multa diária em caso de descumprimento será de R$ 50 mil

02/07/2024

A Autoridade Nacional de Proteção de Dados (ANPD) decidiu suspender o uso de dados pessoais publicados em plataformas da empresa Meta para o treinamento de sistemas de inteligência artificial (IA). 

Uma medida cautelar foi aprovada pelo conselho decisório da ANPD. O despacho com a decisão foi publicado no Diário Oficial da União (DOU) desta terça-feira (2). Foi estipulada multa diária de R$ 50 mil em caso de descumprimento. 

Na última quarta-feira (26), entrou em vigor uma nova política de privacidade da Meta, abrangendo plataformas de rede social como Instagram, Facebook e Messenger. O documento autoriza a utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa. 

“Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos”, disse a ANPD em nota. Para justificar a medida, o órgão destacou a utilização de dados pessoas de crianças e adolescentes para treinar sistemas de IA da Meta, informações que estão sujeitas a proteção especial da Lei Geral de Proteção de Dados (LGPD). 

A agência informou que decidiu de ofício – ou seja, por inciativa própria – fiscalizar a aplicação da nova política da Meta, e disse ter constatado “riscos de dano grave e de difícil reparação aos usuários”, diante do que considerou ser indício de violação LGPD. 

“A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”, diz a nota divulgada pelo órgão. 

A agência mencionou ainda “obstáculos excessivos e não justificados” para que o usuário possa passar a se opor a esse tipo de tratamento de seus dados pessoais. De acordo com a ANPD, os usuários das plataformas da Meta compartilharam dados pessoais com a expectativa de se relacionar com “amigos, comunidade próxima e empresas de interesse”, sem considerar que as informações pudessem ser usadas no treinamento de IA. 

A ANPD é um órgão criado em 2020, ligado ao Ministério da Justiça e Segurança Pública, cujo conselho é composto por cinco diretores indicados pelo presidente e aprovados pelo Senado, com mandato de quatro anos. Os critérios são reputação ilibada, nível superior e elevado conceito no campo de especialidade. 

Outro lado 

Em posicionamento enviado por e-mail, a Meta disse estar “desapontada com a decisão da ANPD”. A empresa acrescentou que não é a única a promover treinamento de IA com informações coletadas pelos serviços prestados. “Somos mais transparentes do que muitos participantes nessa indústria que tem usado conteúdos públicos para treinar seus modelos e produtos”, diz o texto enviado. 

“Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, afirmou a empresa. 

* Por Felipe Pontes – Repórter da Agência Brasil – Brasília

Fonte: Agência Brasil

A volta do desequilíbrio na chamada regra de ouro do Orçamento, que impede a emissão de dívida para bancar despesas como salários e benefícios, vai ampliar o poder de barganha do Congresso Nacional nas negociações com o Executivo a partir de 2025.

02.07.2024

A projeção inicial do governo indicava uma insuficiência de R$ 52,7 bilhões no ano que vem, mas o valor pode ser até maior no momento do envio da proposta de Orçamento, em 31 de agosto. Em 2026, ano eleitoral, o rombo pode chegar a R$ 293,3 bilhões.

A lógica da regra de ouro, prevista na Constituição, é a de que nenhum governo pode se endividar para pagar despesas que não sejam investimentos (que dão retorno a longo prazo e justificam a contratação de uma operação de crédito) ou a rolagem da própria dívida pública.

Em situação de desequilíbrio, o texto prevê uma válvula de escape. Se a União precisar tomar emprestado para pagar despesas correntes (aquelas do dia a dia, como salários e benefícios), é preciso obter aval da maioria absoluta do Congresso –257 deputados e 41 senadores.

O problema central está no esgotamento dos expedientes usados pelo Executivo nos últimos anos para cobrir sozinho o buraco e evitar a necessidade de recorrer ao Legislativo para obter uma autorização especial e destravar as despesas.

Desde 2021, o Executivo conseguiu recorrer a antecipações de pagamentos do BNDES (Banco Nacional de Desenvolvimento Econômico e Social), repasse de lucros do Banco Central e resgate de superávits financeiros de fundos. Essas receitas financeiras ajudaram a compensar a arrecadação insuficiente para honrar despesas correntes.

Neste ano, as reservas de recursos ainda serão capazes de suprir as necessidades do governo de Luiz Inácio Lula da Silva (PT). O Orçamento foi enviado com R$ 200,3 bilhões em despesas condicionadas, mas a previsão atual é uma margem positiva de R$ 25 bilhões na regra de ouro.

De 2025 em diante, porém, o diagnóstico é de que a fonte de receitas secou.

A demora em alcançar um superávit suficiente para estabilizar a dívida pública, a suspensão do pagamento da dívida por alguns estados e municípios e a elevação dos juros pagos pelo Tesouro Nacional para se financiar no mercado são ingredientes que só agravam o quadro, pois aumentam o desequilíbrio na regra de ouro.

O risco de descumprir a regra de ouro entrou no radar do Tesouro Nacional e da Secretaria de Orçamento Federal em 2017, na esteira dos sucessivos déficits desde 2014. Mas a necessidade de fazer o primeiro pedido de crédito suplementar para atender à norma se deu em 2019.

O governo de Jair Bolsonaro (PL) escolheu condicionar despesas essenciais e com apelo político e social, como benefícios previdenciários e do Bolsa Família, como estratégia para acelerar a liberação. Mesmo assim, enfrentou duras negociações envolvendo pedidos de emendas e verbas. Em 2020, o crédito da regra de ouro também se converteu em moeda de troca nas tratativas com parlamentares.

A partir de 2021, o Executivo conseguiu emplacar na LDO (Lei de Diretrizes Orçamentárias) um artigo para dar mais flexibilidade à equipe econômica. Na prática, despesas inicialmente condicionadas ao crédito suplementar avalizado pelo Congresso poderiam ser destravadas, caso surgisse alguma receita extra. A medida eliminou uma das fontes de pressão política.

Agora, sem ter de onde tirar recursos para seguir sem depender do Congresso, o governo Lula pode se ver obrigado a ceder em propostas de seu interesse ou liberar mais verbas em troca da aprovação do crédito, avaliam técnicos da área econômica e especialistas.

Mesmo a estratégia de condicionar benefícios sociais para sensibilizar parlamentares pode ser insuficiente diante de um ambiente político mais adverso.

O cientista político Rafael Cortez, sócio da consultoria Tendências, afirma que a nova composição das Mesas Diretoras da Câmara dos Deputados e do Senado Federal será a variável central para determinar o grau de governabilidade e as chances de sucesso da agenda do governo de modo geral.

“Nos últimos anos, a Mesa Diretora foi formada, sobretudo a da Câmara, por nomes que rivalizaram com o Executivo, de tal sorte que o atual governo e o próprio PT precisaram apoiar a reeleição de Arthur Lira (PP-AL) para não pagar o custo dessa oposição”, disse.

Segundo ele, há dois cenários possíveis. O primeiro, mais otimista, pressupõe a melhora na relação após a substituição de Lira, independentemente do nome escolhido pelos congressistas.

No segundo, mais pessimista, eventual racha do centrão em torno de diferentes nomes na disputa pelo comando da Câmara pode trazer mais instabilidade política, sobretudo se o vitorioso não conseguir superar essas divisões após a eleição. Na avaliação de Cortez, este é o cenário mais provável de se concretizar.

“No atual equilíbrio, Lira até precisa negociar, mas o governo consegue passar a matéria. Não tem uma paralisia. Em um cenário mais preocupante, o risco de paralisia não é desprezível”, disse.

Por ser essencial para o pagamento de benefícios sociais, o crédito da regra de ouro não deve travar totalmente. Mas a barganha tende a aumentar.

“Quanto maior a instabilidade, maior o custo dessa aprovação. O governo precisaria ceder em outros espaços que ele não gostaria”, afirmou Cortez.

ENTENDA O IMPASSE DA REGRA DE OURO

O que é a regra de ouro?

É uma norma prevista na Constituição que impede o uso de recursos obtidos via emissão de títulos da dívida para pagar despesas correntes, como salários e benefícios sociais.

O que acontece se houver desequilíbrio na regra?

O governo fica impedido de pagar as despesas descobertas. A única exceção é quando o Congresso aprova, por maioria absoluta, uma autorização especial para financiar os gastos com recursos da dívida pública.

Qual é o impasse enfrentado pelo governo?

Desde 2021, o governo tem conseguido recorrer a fontes de receitas financeiras extras para compensar o desequilíbrio na regra de ouro sem depender do Congresso Nacional. Essas fontes não devem mais ser suficientes a partir de 2025, o que obrigará o Executivo a negociar a liberação com os parlamentares.

A SITUAÇÃO DA REGRA DE OURO

Em 2024

Projeção no Orçamento: insuficiência de R$ 200,3 bilhões

Projeção atualizada em maio de 2024: margem positiva de R$ 25 bilhões

Próximos anos

2025: insuficiência de R$ 52,7 bilhões

2026: insuficiência de R$ 293,3 bilhões

2027: insuficiência de R$ 263,7 bilhões

2028: insuficiência de R$ 272 bilhões

*Por IDIANA TOMAZELLI

Fonte: Folha De S.Paulo – BRASÍLIA, DF (FOLHAPRESS)

Por Edmo Colnaghi Neves

A legislação brasileira, no que diz respeito ao registro de marcas, obedece ao princípio da anterioridade, ou seja, à ideia de que quem requerer o pedido de registro primeiro tem direito à marca — ainda que haja empresa que utilize rótulo semelhante há décadas.

1 de julho de 2024

INPI suspendeu pedido de registro de marca de aguardente, e Justiça Federal decidiu que o instituto tem razão

Essa foi a fundamentação do juiz federal substituto Celso Araújo dos Santos, da 13ª Vara Federal do Rio de Janeiro, para negar um pedido de suspensão de nulidade de um registro para a marca “Triunfo”, que não fora aceito pelo Instituto Nacional de Propriedade Intelectual (INPI) sob alegação de que se tratava de nome semelhante ao de outra empresa.

A parte autora tentou, por duas vezes e sem sucesso, registrar o nome da marca junto ao órgão. A empresa trabalha no ramo de bebidas alcoólicas, especificamente aguardentes.

Os pedidos foram rechaçados pelo INPI em 2018 e em 2021. À época, o instituto afirmou que não são registráveis marcas com “reprodução ou imitação, no todo ou em parte, ainda que com acréscimo, de marca alheia”.

A argumentação teve base em outro registro, de marca semelhante (chamada Triunpho), que já fora concedido para outra empresa em 2016.

“Em relação às anterioridades remanescentes, absolutamente correto o ato do INPI de indeferimento com base no art. 124, inc. XIX da LPI, já que as marcas em questão assinalam produtos idênticos, quais sejam, bebidas alcoólicas, com destaque para aguardentes”, escreveu o juiz na decisão.

“Além disso, a marca “Triunfo” da autora reproduz integralmente o núcleo marcário dos registros anteriores “Triunpho” , já que, apesar da pequena distinção gráfica, a pronúncia de ambos os vocábulos é idêntica, bem como seu significado, ressaltando tratar-se de vocábulo não diluído ou de uso comum no segmento em que inserido”, complementou.

Ainda segundo o magistrado, “a alegação da autora de que faz de uso de sua marca desde a década de 1940” não dá respaldo ao pedido, posto que o país adota “o sistema atributivo, de modo a atribuir a propriedade da marca através do registro, sendo que este é concedido a quem primeiro apresentar no INPI (ou seja, depositar) um pedido, no que é chamado princípio da anterioridade, ou first to file”.


Processo 5066519-91.2023.4.02.5101

Fonte: JFRJ

Somente questões urgentes serão analisadas no período

01/07/2024

Os tribunais brasileiros entram em recesso a partir desta segunda-feira (1º). Os prazos processuais ficam suspensos até 31 de julho. Nesse período, somente questões urgentes devem ser analisadas por magistrados de plantão. 

No Supremo Tribunal Federal (STF), o plantão judicial ficará dividido entre o vice-presidente Edson Fachin, responsável até 16 de julho, e o presidente, Luís Roberto Barroso, que ficará à frente da Corte entre os dias 17 e 31 de julho.

Ainda assim, outros cinco ministros do Supremo informaram que deverão continuar trabalhando durante o recesso. Isso significa que continuarão a despachar normalmente em todos os processos sob sua relatoria. São eles: Gilmar Mendes, Dias Toffoli, Alexandre de Moraes, André Mendonça e Flávio Dino.

Nos processos sob relatoria dos demais ministros, questões urgentes e pedidos de liminar serão decididos por Fachin ou Barroso. Os demais tribunais têm liberdade para organizar o próprio plantão judicial, embora sempre garantindo que temas considerados urgentes sejam analisados em tempo hábil. 

*Por Agência Brasil – Brasília

Ordem dos Advogados do Brasil afirma que a legislação viola o pacto federativo e a repartição de competências.

01.07/2024

O Conselho Federal da Ordem dos Advogados do Brasil (OAB) questiona no Supremo Tribunal Federal (STF) trechos da nova Lei de Licitações e Contratos Administrativos (Lei 14133/2021) por suposta violação ao pacto federativo e à repartição de competências entre União, estados, Distrito Federal e municípios. A Ação Direta de Inconstitucionalidade (ADI) 7680, distribuída ao ministro André Mendonça, pede a suspensão de dispositivos que tratam da transferência de bens da administração pública, como procedimentos e requisitos obrigatórios para a operação, para que sejam aplicados somente à União.

Para a OAB, os trechos são inconstitucionais por invadirem a competência dos estados, do DF e dos municípios, que, embora não possam criar novos modelos de operação, ainda podem legislar sobre a alienação de bens de seu próprio patrimônio. A nova lei, segundo a entidade, cria regras que afetam imóveis estaduais, do DF e municipais, e seu intuito com a ação é defender o direito desses entes de administrarem os bens de sua titularidade sem interferência da União, “que não deve ter o poder de impor limites e condições para esse uso e disposição”.

Ainda de acordo com a argumentação da OAB, a norma restringe a mobilidade patrimonial dos demais entes federativos e afronta a liberdade de disposição patrimonial dos estados, do Distrito Federal e dos municípios, violando o pacto federativo e o sistema de repartição de competências previsto na Constituição.

PN/AS//CF

Fonte: OAB Nacional