:root { --editorial-color: #556373; } body { writing-mode: horizontal-tb; font-family: var(--font-family-primary, sans-serif), sans-serif; }
Logo R7.com
Logo do PlayPlus
R7 Brasília

STF volta a julgar responsabilização das redes sociais em 4 de junho

STF discute regras para redes sociais retirarem conteúdos ilegais e como podem ser responsabilizadas

Brasília|Do R7, em Brasília

Luís Roberto Barroso
Barroso marcou julgamento para 4 de junho Antonio Augusto/STF - 28.5.2025

O STF (Supremo Tribunal Federal) vai retomar em 4 de junho o julgamento de duas ações que vão definir se plataformas digitais podem ser responsabilizadas por conteúdos que os usuários publicam.

O Supremo analisa a constitucionalidade do artigo 19 do Marco Civil da Internet, que diz que as plataformas só são obrigadas a retirar conteúdos considerados ilegais se houver uma ordem da Justiça, com algumas exceções.

leia mais

O caso será retomado após o ministro André Mendonça devolver as ações para julgamento — no fim de 2024, ele tinha pedido vista (mais tempo para analisar).

Antes disso, três ministros tinham votado. O relator de uma das ações, Luiz Fux, defendeu que as plataformas podem, sim, ser responsabilizadas sem precisar esperar uma decisão judicial, em algumas situações.


Segundo ele, se as plataformas sabem que um conteúdo é criminoso por ser obviamente ilegal, elas têm a obrigação de remover esse conteúdo imediatamente. Se não fizerem, podem ser processadas e pagar indenização. O ministro considerou como conteúdos obviamente ilegais postagens que envolvem:

  • Discurso de ódio;
  • Racismo;
  • Pedofilia;
  • Incitação à violência;
  • Defesa de golpe de Estado ou de acabar com a democracia.

Nessas situações, Fux entende que as plataformas têm que ter um monitoramento ativo, ou seja, precisam acompanhar e agir rapidamente para evitar esse tipo de conteúdo.


Segundo o voto do ministro, quando se trata de ofensas contra uma pessoa, como ataques à honra, imagem ou privacidade, a plataforma só é obrigada a agir se for avisada previamente pela vítima.

Voto de Dias Toffoli

Relator de outra ação, o ministro Dias Toffoli votou para declarar a inconstitucionalidade do artigo 19 do Marco Civil da Internet, determinando a responsabilização civil dos provedores de aplicações de internet em diversas situações relacionadas a conteúdo de terceiros, especialmente quando não removem conteúdo ilícito após notificação ou em casos específicos como contas falsas e conteúdo impulsionado.


De forma geral, as plataformas podem ser responsabilizadas por danos causados por conteúdos publicados por seus usuários quando, após serem avisadas pela pessoa prejudicada, não tomarem providências em tempo razoável para remover esse conteúdo.

Porém, Toffoli entende que em algumas situações a plataforma deve responder imediatamente, sem precisar de aviso prévio. Isso acontece quando:

  • Elas próprias ajudam a divulgar o conteúdo, seja recomendando, impulsionando (pago ou não) ou moderando;
  • O conteúdo vem de uma conta falsa, anônima ou robô (automatizada); e
  • O conteúdo viola direitos autorais
  • A remoção também deve ser automática em situações como
  • Ataques contra a democracia e tentativa de golpe de Estado;
  • Terrorismo ou preparação para atos terroristas;
  • Incentivo, apoio ou ajuda a suicídio e automutilação;
  • Racismo;
  • Violência contra crianças, adolescentes, mulheres e pessoas vulneráveis;
  • Quebra de regras sanitárias em emergências de saúde pública;
  • Tráfico de pessoas;
  • Incitação ou ameaça de violência física ou sexual;
  • Divulgação de notícias falsas que incentivem a violência física ou coloquem vidas em risco;
  • Fake news com potencial de prejudicar eleições ou ameaçar sua integridade.

Voto de Barroso

Barroso abriu divergência em relação a Fux e Toffoli. O STF propôs um modelo com três regras diferentes, dependendo do tipo de conteúdo.

Para ofensas pessoais, crimes contra a honra e outros problemas civis, continua valendo a regra atual: a plataforma só é obrigada a retirar o conteúdo se tiver uma ordem judicial.

Para crimes mais graves, como racismo, pedofilia, terrorismo e golpes contra a democracia, basta uma notificação simples, sem precisar de decisão da Justiça. A plataforma deve agir rapidamente após ser avisada.

Quando o conteúdo é um anúncio pago ou impulsionado, entende-se que a plataforma já sabe do que se trata, então ela pode ser responsabilizada sem precisar de notificação, a não ser que consiga provar que agiu rapidamente para remover o problema.

No voto, Barroso destacou que as plataformas precisam ter um dever de cuidado maior. Isso significa que elas devem agir para prevenir riscos graves para a sociedade.

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.