Governo Lula discute novas regras para redes sociais, com foco em combate à desinformação, transparência e moderação de conteúdo

29 de Janeiro de 2025

O governo federal está discutindo um novo projeto de lei voltado para a regulação das plataformas digitais. Denominado Marco Legal de Proteção de Usuários de Serviços Digitais, o texto propõe medidas para combater desinformação, discurso de ódio e outros conteúdos ilícitos. O objetivo é definir responsabilidades das empresas na moderação de conteúdo e criar um sistema de fiscalização, conforme apurado com autoridades envolvidas no debate.

O projeto foi elaborado pelo Ministério da Justiça e apresentado a um grupo de trabalho composto por representantes da Casa Civil, AGU (Advocacia-Geral da União), CGU (Controladoria-Geral da União), Ministério da Fazenda e Secom (Secretaria de Comunicação Social). A proposta visa substituir tentativas anteriores de regulação digital, como o PL das Fake News, que não avançaram no Congresso.

Novo projeto de regulação das plataformas digitais

A proposta estabelece que as plataformas digitais sejam responsáveis pela remoção de conteúdos considerados ilícitos, sem necessidade de decisão judicial. Entre os principais pontos em discussão estão:

  • Dever de precaução e prevenção: Obriga as plataformas a identificar e remover conteúdos ilegais, como pedofilia, apologia ao terrorismo e violações aos direitos do consumidor.
  • Redução de riscos sistêmicos: Prevê a implementação de medidas para reduzir a disseminação de desinformação em massa, discurso de ódio e conteúdos extremistas.
  • Transparência: Exige que as empresas divulguem os termos de uso, o funcionamento dos algoritmos de recomendação de conteúdo e relatórios sobre ações de moderação.

O projeto também contempla a criação de um comitê estatal para fiscalizar o cumprimento das regras. O comitê deverá ser composto por órgãos como a Anatel (Agência Nacional de Telecomunicações), ANPD (Autoridade Nacional de Proteção de Dados) e Cade (Conselho Administrativo de Defesa Econômica), embora a composição final ainda esteja em debate.

Três níveis de responsabilidade para as plataformas

De acordo com o texto em discussão, as plataformas digitais terão diferentes níveis de responsabilidade no controle de conteúdo:

  • Autorregulação: Remoção direta de conteúdos ilícitos pelas próprias empresas, com base na legislação brasileira.
  • Notificações extrajudiciais: As empresas deverão agir em casos de desinformação sobre políticas públicas, quando notificadas por órgãos competentes.
  • Decisões judiciais: Obriga a remoção de conteúdos relacionados a questões de liberdade de imprensa, proteção de reputação e ofensas a agentes públicos, apenas mediante decisão judicial.

A proposta visa alinhar o Brasil a modelos internacionais, como o “dever de cuidado” europeu, que também responsabiliza as plataformas pela moderação de conteúdos considerados ilegais.

Medidas para períodos eleitorais

O texto em discussão também propõe regras específicas para a moderação de conteúdo em períodos eleitorais. A intenção é criar um procedimento acelerado para a remoção de publicações consideradas inverídicas, com foco em evitar interferências no processo eleitoral. Durante as eleições de 2022, o Tribunal Superior Eleitoral (TSE) determinou a remoção de conteúdos falsos em até duas horas, gerando controvérsias que a nova proposta busca endereçar de forma mais estruturada.

Desafios e pontos de atenção

A definição de “desinformação” é um dos principais pontos de debate em torno do projeto. O termo carece de uma definição clara, o que tem gerado preocupações sobre o risco de interpretações subjetivas. Autoridades envolvidas no grupo de trabalho afirmam que o foco será em conteúdos que violem leis já existentes.

Outro ponto em aberto é o escopo da regulação. O texto atual discute se as regras se aplicarão exclusivamente às redes sociais ou também a outras plataformas, como serviços de comércio eletrônico, ferramentas de busca e aplicativos de mensagens instantâneas.

As sanções previstas para o descumprimento das regras incluem advertências, multas e, em casos extremos, a suspensão dos serviços. A fiscalização ficaria a cargo do comitê a ser criado, que monitorará o comportamento geral das plataformas para assegurar o cumprimento das obrigações.

Impacto nas plataformas digitais

Caso aprovado, o projeto exigirá que empresas como Meta, Google e Twitter adotem mudanças significativas em suas operações no Brasil. Entre as obrigações previstas estão:

  • Auditorias externas: Avaliação independente das práticas de moderação das plataformas.
  • Relatórios de transparência: Divulgação de dados sobre remoção de conteúdo e funcionamento de algoritmos.
  • Ajustes nos algoritmos de recomendação: Redução da visibilidade de conteúdos considerados nocivos ou ilícitos.

Comparação com o modelo europeu

A proposta brasileira compartilha semelhanças com a Lei de Serviços Digitais (Digital Services Act) da União Europeia, que estabelece normas para a transparência e a moderação de conteúdo. No entanto, a inclusão de notificações extrajudiciais e a criação de um comitê fiscalizador estatal diferenciam o projeto brasileiro, que prevê maior envolvimento do governo na fiscalização.

Próximos passos e possíveis cenários

O governo ainda avalia se apresentará o texto como um projeto próprio ou se incorporará as ideias a uma proposta já existente, como o projeto do deputado Silas Câmara (Republicanos-AM). A decisão dependerá, em parte, do desfecho do julgamento no STF sobre o Marco Civil da Internet, que discute se as plataformas podem ser responsabilizadas por conteúdos publicados por terceiros.

A expectativa é que o governo também amplie o debate sobre o tema, incluindo discussões com especialistas e representantes das plataformas digitais antes de submeter o texto ao Congresso Nacional.

Principais pontos do projeto em discussão

  • Dever de precaução e prevenção: Responsabilidade das plataformas na remoção de conteúdos ilícitos, com base na legislação brasileira.
  • Redução de riscos sistêmicos: Medidas para combater a disseminação de desinformação em massa e discursos de ódio.
  • Transparência: Exigência de divulgação de relatórios, termos de uso e funcionamento de algoritmos.
  • Três níveis de responsabilidade: Autorregulação, notificações extrajudiciais e decisões judiciais.
  • Fiscalização estatal: Criação de um comitê composto por órgãos do governo para monitorar o cumprimento das regras.

Conclusão

O novo projeto do governo Lula para plataformas digitais propõe medidas abrangentes para regular as redes sociais no Brasil. A proposta busca estabelecer regras claras para a moderação de conteúdo, combater a desinformação e garantir maior transparência no funcionamento das plataformas. No entanto, o texto ainda está em fase de discussão, com pontos como a definição de desinformação e a composição do comitê fiscalizador pendentes de consenso. O desfecho das discussões no Congresso e no STF será determinante para o futuro da regulação digital no país.

Fonte: Jornal Jurid