Posts

Empresas foram responsabilizadas por danos à saúde mental de jovem após uso prolongado de plataformas.

 

 

27 de março de 2026

Meta e Google foram consideradas culpadas em um processo histórico nos Estados Unidos, nesta quarta-feira, 25, após júri de Los Angeles concluir que as empresas contribuíram para o vício em redes sociais e para os danos à saúde mental de uma jovem.

Para os jurados, as plataformas foram desenvolvidas de forma negligente e sem alertas adequados aos usuários.

Uso desde a infância e impactos psicológicos

O caso teve início com uma jovem que passou a utilizar o YouTube ainda na infância e, posteriormente, adotou o uso intensivo do Instagram. Com o tempo, desenvolveu comportamento compulsivo, associado a impactos na saúde mental, como ansiedade, depressão e distorções na autoimagem.

A ação apontou que mecanismos como rolagem infinita e reprodução automática foram estruturados para prolongar o tempo de uso, estimulando o engajamento contínuo desde cedo.

 (Imagem: Adobe Stock)

Justiça dos EUA condena Meta e Google por viciar crianças.(Imagem: Adobe Stock)

 

Defesa das empresas

As empresas alegaram que os problemas de saúde mental não podem ser atribuídos exclusivamente às plataformas, destacando a existência de ferramentas de segurança e controle parental.

Também sustentaram que seus produtos não foram projetados para causar dependência e informaram que pretendem recorrer da decisão.

Desenvolvimento negligente

Ao analisar o caso, o júri concluiu que houve falha no dever de cuidado, ao considerar que os produtos foram desenvolvidos sem medidas suficientes para mitigar riscos associados ao uso excessivo.

O colegiado entendeu que as empresas não alertaram adequadamente os usuários sobre possíveis impactos negativos, especialmente em relação ao público jovem.

Ao final, o júri reconheceu que o funcionamento das plataformas teve papel relevante no agravamento dos problemas psicológicos da jovem, estabelecendo precedente para a responsabilização de empresas por efeitos associados ao uso de redes sociais.

Com a decisão, foi fixada indenização de US$ 3 milhões, sendo 70% atribuídos à Meta e 30% ao Google.

Fonte: https://www.migalhas.com.br/quentes/452696/em-decisao-historica-meta-e-google-sao-condenados-por-viciar-criancas

Governo Lula discute novas regras para redes sociais, com foco em combate à desinformação, transparência e moderação de conteúdo

29 de Janeiro de 2025

O governo federal está discutindo um novo projeto de lei voltado para a regulação das plataformas digitais. Denominado Marco Legal de Proteção de Usuários de Serviços Digitais, o texto propõe medidas para combater desinformação, discurso de ódio e outros conteúdos ilícitos. O objetivo é definir responsabilidades das empresas na moderação de conteúdo e criar um sistema de fiscalização, conforme apurado com autoridades envolvidas no debate.

O projeto foi elaborado pelo Ministério da Justiça e apresentado a um grupo de trabalho composto por representantes da Casa Civil, AGU (Advocacia-Geral da União), CGU (Controladoria-Geral da União), Ministério da Fazenda e Secom (Secretaria de Comunicação Social). A proposta visa substituir tentativas anteriores de regulação digital, como o PL das Fake News, que não avançaram no Congresso.

Novo projeto de regulação das plataformas digitais

A proposta estabelece que as plataformas digitais sejam responsáveis pela remoção de conteúdos considerados ilícitos, sem necessidade de decisão judicial. Entre os principais pontos em discussão estão:

  • Dever de precaução e prevenção: Obriga as plataformas a identificar e remover conteúdos ilegais, como pedofilia, apologia ao terrorismo e violações aos direitos do consumidor.
  • Redução de riscos sistêmicos: Prevê a implementação de medidas para reduzir a disseminação de desinformação em massa, discurso de ódio e conteúdos extremistas.
  • Transparência: Exige que as empresas divulguem os termos de uso, o funcionamento dos algoritmos de recomendação de conteúdo e relatórios sobre ações de moderação.

O projeto também contempla a criação de um comitê estatal para fiscalizar o cumprimento das regras. O comitê deverá ser composto por órgãos como a Anatel (Agência Nacional de Telecomunicações), ANPD (Autoridade Nacional de Proteção de Dados) e Cade (Conselho Administrativo de Defesa Econômica), embora a composição final ainda esteja em debate.

Três níveis de responsabilidade para as plataformas

De acordo com o texto em discussão, as plataformas digitais terão diferentes níveis de responsabilidade no controle de conteúdo:

  • Autorregulação: Remoção direta de conteúdos ilícitos pelas próprias empresas, com base na legislação brasileira.
  • Notificações extrajudiciais: As empresas deverão agir em casos de desinformação sobre políticas públicas, quando notificadas por órgãos competentes.
  • Decisões judiciais: Obriga a remoção de conteúdos relacionados a questões de liberdade de imprensa, proteção de reputação e ofensas a agentes públicos, apenas mediante decisão judicial.

A proposta visa alinhar o Brasil a modelos internacionais, como o “dever de cuidado” europeu, que também responsabiliza as plataformas pela moderação de conteúdos considerados ilegais.

Medidas para períodos eleitorais

O texto em discussão também propõe regras específicas para a moderação de conteúdo em períodos eleitorais. A intenção é criar um procedimento acelerado para a remoção de publicações consideradas inverídicas, com foco em evitar interferências no processo eleitoral. Durante as eleições de 2022, o Tribunal Superior Eleitoral (TSE) determinou a remoção de conteúdos falsos em até duas horas, gerando controvérsias que a nova proposta busca endereçar de forma mais estruturada.

Desafios e pontos de atenção

A definição de “desinformação” é um dos principais pontos de debate em torno do projeto. O termo carece de uma definição clara, o que tem gerado preocupações sobre o risco de interpretações subjetivas. Autoridades envolvidas no grupo de trabalho afirmam que o foco será em conteúdos que violem leis já existentes.

Outro ponto em aberto é o escopo da regulação. O texto atual discute se as regras se aplicarão exclusivamente às redes sociais ou também a outras plataformas, como serviços de comércio eletrônico, ferramentas de busca e aplicativos de mensagens instantâneas.

As sanções previstas para o descumprimento das regras incluem advertências, multas e, em casos extremos, a suspensão dos serviços. A fiscalização ficaria a cargo do comitê a ser criado, que monitorará o comportamento geral das plataformas para assegurar o cumprimento das obrigações.

Impacto nas plataformas digitais

Caso aprovado, o projeto exigirá que empresas como Meta, Google e Twitter adotem mudanças significativas em suas operações no Brasil. Entre as obrigações previstas estão:

  • Auditorias externas: Avaliação independente das práticas de moderação das plataformas.
  • Relatórios de transparência: Divulgação de dados sobre remoção de conteúdo e funcionamento de algoritmos.
  • Ajustes nos algoritmos de recomendação: Redução da visibilidade de conteúdos considerados nocivos ou ilícitos.

Comparação com o modelo europeu

A proposta brasileira compartilha semelhanças com a Lei de Serviços Digitais (Digital Services Act) da União Europeia, que estabelece normas para a transparência e a moderação de conteúdo. No entanto, a inclusão de notificações extrajudiciais e a criação de um comitê fiscalizador estatal diferenciam o projeto brasileiro, que prevê maior envolvimento do governo na fiscalização.

Próximos passos e possíveis cenários

O governo ainda avalia se apresentará o texto como um projeto próprio ou se incorporará as ideias a uma proposta já existente, como o projeto do deputado Silas Câmara (Republicanos-AM). A decisão dependerá, em parte, do desfecho do julgamento no STF sobre o Marco Civil da Internet, que discute se as plataformas podem ser responsabilizadas por conteúdos publicados por terceiros.

A expectativa é que o governo também amplie o debate sobre o tema, incluindo discussões com especialistas e representantes das plataformas digitais antes de submeter o texto ao Congresso Nacional.

Principais pontos do projeto em discussão

  • Dever de precaução e prevenção: Responsabilidade das plataformas na remoção de conteúdos ilícitos, com base na legislação brasileira.
  • Redução de riscos sistêmicos: Medidas para combater a disseminação de desinformação em massa e discursos de ódio.
  • Transparência: Exigência de divulgação de relatórios, termos de uso e funcionamento de algoritmos.
  • Três níveis de responsabilidade: Autorregulação, notificações extrajudiciais e decisões judiciais.
  • Fiscalização estatal: Criação de um comitê composto por órgãos do governo para monitorar o cumprimento das regras.

Conclusão

O novo projeto do governo Lula para plataformas digitais propõe medidas abrangentes para regular as redes sociais no Brasil. A proposta busca estabelecer regras claras para a moderação de conteúdo, combater a desinformação e garantir maior transparência no funcionamento das plataformas. No entanto, o texto ainda está em fase de discussão, com pontos como a definição de desinformação e a composição do comitê fiscalizador pendentes de consenso. O desfecho das discussões no Congresso e no STF será determinante para o futuro da regulação digital no país.

Fonte: Jornal Jurid