DESTAQUEPolíticaRecentesSTF

STF muda regra e responsabiliza redes sociais por não remover conteúdo ofensivo

O Supremo Tribunal Federal (STF) decidiu, por 8 votos a 3, alterar a forma como redes sociais e plataformas digitais respondem por publicações de terceiros. A Corte considerou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, que exigia decisão judicial para responsabilizar civilmente as plataformas. Agora, elas podem ser responsabilizadas mesmo sem ordem judicial, em determinados casos.

O que muda com a decisão

A decisão do STF estabelece novos critérios de responsabilidade, divididos em três níveis:

🔴 Remoção imediata e proativa

Plataformas devem remover de forma imediata, sem qualquer notificação ou decisão judicial, conteúdos com:

  • Racismo
  • Pedofilia
  • Discurso de ódio
  • Incitação à violência
  • Defesa de golpe de Estado

Se houver omissão, a empresa poderá ser responsabilizada civilmente.

🟠 Notificação extrajudicial

Para outros conteúdos ilícitos (como desinformação ou ataques pessoais), basta uma notificação extrajudicial para que a empresa tenha o dever de remover. Caso não remova e a Justiça confirme a ofensa depois, a rede poderá ser responsabilizada.

🟢 Crimes contra a honra

No caso de difamação, calúnia ou injúria, as regras permanecem como estão: a plataforma só será obrigada a retirar o conteúdo se houver ordem judicial. O STF manteve essa proteção como forma de preservar a liberdade de expressão.


Tese aprovada pelo STF

O tribunal fixou a seguinte interpretação:

  • O artigo 19 do Marco Civil é parcialmente inconstitucional por omissão na proteção de direitos fundamentais.
  • Enquanto o Congresso não aprovar nova lei, as plataformas podem ser responsabilizadas:
    • Por não removerem conteúdo após notificação extrajudicial;
    • Por conteúdos graves que exijam remoção imediata, mesmo sem notificação;
    • Por publicações feitas por contas inautênticas ou automatizadas.
  • A nova regra não se aplica a conteúdos eleitorais, que seguem normas próprias do TSE.

Impacto

A decisão pressiona redes como X (ex-Twitter), Facebook, Instagram, YouTube e TikTok a revisar políticas de moderação e criar sistemas mais ágeis para lidar com denúncias. As plataformas devem estruturar canais para receber notificações extrajudiciais e responder rapidamente a casos de discurso de ódio, violência e crimes graves.

Enquanto o Congresso não legislar sobre o tema, essa interpretação do STF passa a valer.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *