Posts

Julgamento prosseguirá nesta quinta-feira (5), com a continuação do voto do ministro Dias Toffoli.

05 de Dezembro de 2024

O Supremo Tribunal Federal (STF) continuou a julgar, nesta quarta-feira (4), os Recursos Extraordinários (REs) 1037396 e 1057258, que tratam da responsabilidade civil das plataformas da internet por conteúdos de terceiros e a possibilidade de remoção de material ofensivo, a pedido dos ofendidos, sem a necessidade de ordem judicial.

A controvérsia é sobre o artigo 19 do Marco Civil da Internet (Lei 12.965/2014), que exige ordem judicial prévia e específica de exclusão de conteúdo para a responsabilização civil de provedores, websites e gestores de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros.

Riscos sistêmicos

Dando continuidade a seu voto, iniciado na sessão de 28/11, o ministro Dias Toffoli afirmou que esse modelo de responsabilidade é inconstitucional pois, desde sua edição, foi incapaz de oferecer proteção efetiva aos direitos fundamentais em ambientes virtuais. Além disso, a seu ver, a norma não está apta a enfrentar os riscos sistêmicos surgidos nesses ambientes a partir de novas tecnologias e modelos de negócios e de seus impactos nas relações econômicas, sociais e culturais.

O relator reiterou seu entendimento de que a regra atual dá imunidade às empresas, que somente podem ser responsabilizadas civilmente se descumprirem uma ordem judicial para retirada de conteúdo. Para ele, a responsabilização é um importante mecanismo de desestímulo de condutas ilícitas. “Vivemos em um mundo de violência digital que o artigo 19 acoberta”, afirmou.

Toffoli afirmou que, caso seu voto prevaleça, a responsabilização das plataformas por conteúdos de terceiros deverá se basear no artigo 21 do Marco Civil, que prevê a retirada do conteúdo após simples notificação. Em relação aos blogs, Toffoli defendeu que eles sejam submetidos à Lei 13.188/2015, que trata do direito de resposta aplicado às empresas jornalísticas, e não ao Marco Civil da Internet.

Anúncios falsos

O ministro considera que as plataformas de busca devem ser responsabilizadas inclusive por anúncios falsos que, segundo ele, aparecem com mais destaque que os das empresas verdadeiras. Em seu entendimento, da mesma forma que conseguem identificar as preferências dos consumidores, as plataformas poderiam identificar publicidade falsa e contribuir para reduzir fraudes.

Segundo Toffoli, a violência na internet ultrapassa o mundo virtual e produz efeitos no mundo real. Ele destacou que diversos ataques a escolas, com vítimas fatais, e à democracia, como os atos golpistas de 8/1, foram previamente anunciados em redes sociais ou em grupos públicos e canais abertos de mensagem “sem que nenhum desses serviços tomasse alguma atitude para bloquear”.

O julgamento prosseguirá na sessão de quinta-feira (5), com o voto do ministro Toffoli. Em seguida, o ministro Luiz Fux, relator do RE 1057258, apresentará seu voto.

Fonte: Supremo Tribunal Federal

Representantes do Facebook e do Google defenderam nesta quarta-feira (27/11), no plenário do Supremo Tribunal Federal, a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014). O dispositivo estabelece que as plataformas digitais e os provedores só podem ser responsabilizados civilmente quando descumprem ordem judicial de retirada do ar de conteúdo apontado como ilegal.

27 de novembro de 2024

Supremo começou a analisar ações sobre responsabilização de redes

O STF começou a analisar nesta quarta duas ações com repercussão geral que discutem, entre outras coisas, a constitucionalidade do artigo 19, a responsabilização das plataformas por conteúdos de usuários e a remoção de conteúdos e perfis mediante notificação extrajudicial.

O artigo 19 do Marco Civil, tema central da discussão dos ministros, diz o seguinte:

Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria do ministro Dias Toffoli), será discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.

Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux) será discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.

O que diz o Facebook

O Facebook foi representado no julgamento iniciado nesta quarta pelo advogado José Rollemberg Leite Neto. De acordo com ele, se o Supremo decidir que notificações extrajudiciais são o suficiente para a retirada do ar de qualquer tipo de conteúdo, haverá um ambiente de “censura massiva”, que pode afetar até mesmo os jornais.

“Isso importa na preservação do jornalismo profissional. Em extensa medida, os conteúdos postados nas plataformas vêm dessas fontes. E qualquer conteúdo que represente denúncia ou crítica pode ser visto como ofensivo e instado a ser removido. O que causaria um gravíssimo prejuízo ao debate público.”

De acordo com o advogado, não há inércia das plataformas para a supressão de conteúdos ilícitos. Ele afirmou, por exemplo, que no ano passado 208 milhões de postagens com pedofilia, violência e discurso de ódio foram removidas globalmente pelo Facebook a partir de identificações feitas pela própria plataforma.

Leite Neto também afirmou que a maioria dos processos do gênero trata não da retirada de publicações, mas da reinclusão de material anteriormente removido.

Ele pediu que, caso o Supremo não considere o artigo 19 integralmente constitucional, seja dada interpretação conforme à Constituição determinando que a retirada obrigatória de perfis e páginas só se dê em casos de exploração sexual infantil, terrorismo, racismo, abolição violenta do Estado democrático de Direito e golpe de Estado.

“Por que não mais do que isso? Porque conceitos abertos como ‘fake news’, ‘desinformação’, ‘crimes contra a honra’ e ‘postagens manifestamente ilegais’ incentivariam remoções excessivas e levariam a uma judicialização massiva.”

Por fim, questionado pelo ministro Luís Roberto Barroso, presidente da corte, sobre o modo como a plataforma exclui perfis falsos, ele disse que em 98% dos casos há a retirada automática após a comunicação feita por usuários da plataforma.

O que diz o Google

O Google foi representado pelo advogado Eduardo Bastos Furtado de Mendonça, que também apresentou dados sobre a remoção de conteúdos. Ele disse que em 2023 o YouTube (plataforma de vídeos da empresa) removeu 1,6 milhão de publicações no Brasil por violações de políticas da empresa, enquanto no mesmo período os casos judicializados somaram 614 pedidos.

“Não existe uma inércia que seja parte do modelo de negócio das plataformas. Nem haveria sentido que existisse. A maioria dos usuários e a generalidade dos anunciantes repudia esses conteúdos (ilícitos). Não é proveitoso esse tipo de conteúdo.” Os pedidos que chegam ao Judiciário, disse ele, são de fato casos em que há controvérsias que merecem intervenção judicial.

Ainda segundo o advogado, “nenhum país democrático do mundo” adota um modelo de responsabilidade objetiva, em que as plataformas são responsáveis por todo e qualquer conteúdo de terceiros, ficando obrigadas a monitorar publicações globalmente.

Ele citou modelos adotados na Europa, sustentando que o que existe lá são normas que definem que há responsabilidade objetiva quando há descumprimento de decisões, e que o marco para a responsabilização é a notificação extrajudicial. No entanto, prosseguiu Mendonça, a responsabilização só vale para casos específicos, e não para qualquer tipo de conteúdo.

“No caso da lei alemã, a eventual responsabilização está relacionada à indicação de ilicitudes específicas e tipos penais específicos, e o que se prevê é uma responsabilidade pela falha sistêmica de responder adequadamente a essas notificações.”

“Não faria sentido responsabilizar uma plataforma por não ter removido um conteúdo cujo exame é polêmico e sujeito a valorações subjetivas, e que muitas vezes é objeto de divisão no próprio Judiciário”, prosseguiu o advogado.

Ele também destacou que o artigo 21 do Marco Civil prevê a exclusão de conteúdos após notificação extrajudicial, mas em casos específicos de nudez e atos sexuais privados. Para Mendonça, em casos de crimes objetivos, as plataformas identificam e apagam os conteúdos. O mesmo não deveria ser aplicado em conceitos amplos como desinformação, disse ele.

Além dos dois casos de repercussão geral, está na agenda da corte um terceiro processo que está sob a relatoria do ministro Edson Fachin.

Na ADPF 403, os ministros vão discutir se é possível o bloqueio de aplicativos por decisões judiciais ou se a intervenção do Judiciário ofende os direitos à liberdade de expressão e de comunicação.

RE 1.037.396
RE 1.057.258
ADPF 403

  • Por Tiago Angelo – correspondente da revista Consultor Jurídico em Brasília.
  • Fonte: Conjur
Tema faz parte das discussões sobre Marco Civil da Internet no STF

  • Publicado em 29/03/2023

Quem usa as redes sociais já deve ter se sentido perseguido por um assunto, uma propaganda ou até por sugestões de filmes para assistir. O responsável tem nome: algoritmo. É ele quem informa ao mundo digital o que dizer e oferecer ao usuário. Trata-se de uma ferramenta matemática que percebe e reorganiza os conteúdos semelhantes aos acessados pelas pessoas.

De acordo com a pesquisadora do Centro de Estudos da Sociedade da Universidade e Ciência da Universidade Federal de São Paulo (Unesp) Jade Percassi, o algoritmo registra as informações dos internautas.

“Ele guarda os dados de acesso toda vez que a pessoa está logada, [dessa forma] ela está de alguma maneira veiculada a um perfil de acesso seja no Google, seja em outra plataforma, YouTube, Facebook ou Twitter”, explica.

Segundo Percassi, a ferramenta organiza o comportamento e entrega o conteúdo mais preciso e do interesse do usuário, como dicas de filmes e produtos. No entanto, os dados gerados nem sempre são individualizados e podem criar uma massa de informações chamada de Big Data.

“A máquina opera por inteligência artificial, mas tem pessoas que fazem a moderação, que podem gerar distorções na entrega do que vai ser acessado, e isso acontece por várias razões [diferentes]”, esclarece.

A variação da ferramenta pode ser econômica, quando empresas se favorecem das informações sobre o comportamento, perfil e renda para direcionar propagandas a determinados nichos de mercados. No campo das ideias, o que aparenta ser um lugar aberto, de debate público, plural e democrático, se torna cada vez mais segmentado com pessoas recebendo conteúdo parecido com aquilo que elas mesmas já pensam.

“As pessoas que têm um perfil ideológico mais de esquerda vão receber um reforço daquilo que elas pensam”, disse. “As pessoas com um comportamento identificado mais de direita, vão receber o reforço de ideias ou de perfis que correspondem aquilo que elas já pensam, aprofundando, potencializando uma polarização política da sociedade”, acrescentou.

Uso indevido

De acordo com a pesquisadora, o uso de forma indevida e a comercialização das informações podem levar a distorções maiores, como já foram desvendados no caso da Cambridge Analytica, acusada de vazar dados de 50 milhões de usuários do Facebook. As informações foram capturadas a partir de um aplicativo de teste psicológico. No Brasil, a pesquisadora citou a criação do “gabinete do ódio”, milícia digital antidemocrática disseminadora de fake news.

Jade Percassi também alerta para a existência de outras distorções reforçadas pelo comportamento algorítmico presentes na nossa sociedade. Entre eles, destacam-se padrões de beleza reforçados por conta do maior acesso a perfis de pessoas magras e brancas em relação aos de gordas e negras. Além de páginas nudez, levando também para a possibilidade de uma sexualização maior. “Tem todas essas ciladas colocadas e a gente não tem nenhum tipo de moderação”, diz.

A pesquisadora ressalta que as grandes empresas são as proprietárias das plataformas e que, apesar do acesso gratuito, informações pessoais têm valor.

“A gente não pode ter ilusões. Apesar do acesso ser gratuito, estamos entregando algo de muito valor, que são nossos dados”, disse. “Você não paga com dinheiro, mas com seus dados sobre quem você é e sobre o tipo de comportamento que você tem”.

Marco Civil da Internet

Nesta quarta-feira (29), o Supremo Tribunal Federal (STF) continua discussão sobre as regras do Marco Civil da Internet. O debate foi convocado pelos ministros Dias Toffoli e Luiz Fux, relatores de ações que tratam da responsabilidade de provedores na remoção de conteúdos com desinformação, disseminação de discurso de ódio de forma extrajudicial, sem determinação expressa pela Justiça.

No primeiro dia de discussão, ministros da Corte e de Estado se revezaram na defesa da regulação das redes sociais, com algum grau de responsabilização das empresas que as ofertam ao público.

De outro lado, advogados de bigtechs como Google e Meta – donas de redes e aplicativos como YouTube, Instagram, Facebook e WhatsApp – contestaram a iniciativa, argumentando que isso não garantirá uma internet mais segura no Brasil. Eles defenderam que um ambiente digital mais saudável poderá ser alcançado com o aprimoramento da autorregulação já existente.

As discussões englobam também os projetos de lei que tramitam no Congresso para regular as redes sociais e a proteção da democracia no ambiente digital. Tais iniciativas, principalmente o chamado Projeto de Lei (PL) das Fake News, ganharam impulso após os atos golpistas de 8 de janeiro, em Brasília.

*Colaborou Michelle Moreira

Por Ana Lúcia Caldas* – Repórter da Rádio Nacional – Brasília


Fonte: Agência Brasil