DESTAQUEPolíticaRecentesSTF

STF retoma nesta quinta julgamento sobre responsabilidade das redes por conteúdos de usuários

Brasília (DF), 5 de junho de 2025 – O Supremo Tribunal Federal (STF) retoma nesta quinta-feira (5) o julgamento que definirá como as plataformas digitais devem ser responsabilizadas por conteúdos publicados por seus usuários. A sessão dará continuidade ao voto do ministro André Mendonça, que pediu vista do processo no ano passado. Outros sete ministros ainda precisam emitir seus votos, e não está descartada a possibilidade de novo pedido de vista, o que voltaria a suspender o julgamento.

Sessão desta quinta-feira
Na sessão desta quarta (4), Mendonça iniciou a apresentação de seus argumentos sobre o tema e traçou um panorama da legislação comparada em outros países, além de um breve histórico das redes sociais. Ele enfatizou a importância da liberdade de expressão no ambiente digital, argumento que deve beirar o centro de seu voto quando o julgamento for retomado. Nesta quinta, o ministro deve concluir seu posicionamento, detalhando os critérios que considera adequados para a responsabilização das empresas.

“Não tem a ver com censura”, afirma Barroso
Antes de Mendonça iniciar seu voto, o presidente do STF, ministro Luís Roberto Barroso, esclareceu que a discussão não envolve censura, mas sim responsabilidade civil. “Estabelecer os critérios que vão reger os casos que chegam ao Judiciário é nosso dever e nada tem de invasão à competência de outros Poderes. E muito menos tem a ver com censura”, disse. Na visão de Barroso, o objetivo é definir em que momento as plataformas devem agir para identificar e excluir conteúdo ilícito.

Posições dos relatores e voto de Mendonça
Até agora, já votaram três ministros:

  • Dias Toffoli (relator do Tema 987)
    Toffoli defendeu a inconstitucionalidade do artigo 19 do Marco Civil da Internet. Segundo ele, as plataformas devem remover conteúdos ofensivos ou ilícitos imediatamente após notificação extrajudicial — sem necessidade de ordem judicial prévia. Em casos graves, como racismo, o ministro entendeu que a remoção deve ocorrer mesmo sem notificação. Para Toffoli, se as empresas digitais se omitirem, devem ser responsabilizadas.
  • Luiz Fux (relator do Tema 533)
    Fux concordou com Toffoli ao afirmar que o artigo 19 fere a Constituição. Em seu voto, estabeleceu que a remoção de postagens consideradas ilícitas deve ser imediata após notificação pela vítima ou advogado. Ele listou categorias de conteúdo que, desde já, devem ser tratadas como ilegais: discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito. Fux propôs que as empresas criem canais sigilosos para denúncias e monitoramento ativo de publicações, rejeitando a tese de que essa postura fere a liberdade de expressão.
  • Luís Roberto Barroso
    Barroso, por sua vez, defendeu distinção entre crimes contra a honra (injúria, calúnia e difamação) e outras condutas ilícitas. Para ele, no caso de crimes contra a honra, a remoção só deve ocorrer mediante ordem judicial. Já em situações de conteúdo tipificado como crime grave — como pornografia infantil, incitação ao suicídio, tráfico de pessoas, terrorismo ou apologia ao golpe de Estado —, as plataformas devem agir prontamente, sob pena de responsabilização.

Próximos passos
Com o voto de Mendonça em andamento, ainda poderão votar os ministros Flávio Dino, Nunes Marques, Cármen Lúcia, Alexandre de Moraes, Gilmar Mendes, Edson Fachin e Cristiano Zanin. Uma nova solicitação de vista poderá estender ainda mais o prazo para a conclusão do julgamento.

O que está em análise
O centro da discussão é o artigo 19 do Marco Civil da Internet, em vigor desde 2014, que condiciona a responsabilização das plataformas ao descumprimento de ordem judicial para remoção de conteúdo ilegal. Se o STF confirmar a inconstitucionalidade desse dispositivo, as redes sociais poderão ser obrigadas a atender notificações extrajudiciais dos usuários como condição para evitar responsabilização civil. A decisão da Corte terá impacto direto nas políticas de moderação de conteúdo das principais redes sociais e definirá o grau de autonomia que as empresas terão ao lidar com postagens potencialmente ofensivas ou criminosas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *