Resumo
O presente artigo analisa a recente decisão do Supremo Tribunal Federal (STF) que estabelece a responsabilização das plataformas digitais por conteúdos ilegais publicados por seus usuários, a partir do momento em que forem notificadas. A medida reabre o debate sobre os limites entre a moderação de conteúdos e a liberdade de expressão, levantando questionamentos sobre os riscos de censura em um ambiente digital cada vez mais regulado.
Introdução
Com o avanço tecnológico e o crescimento das redes sociais como principais canais de informação e expressão, os desafios relacionados à moderação de conteúdos se intensificaram. O Brasil, assim como outras democracias, enfrenta o dilema entre combater discursos de ódio, fake news e incitação à violência, sem ferir direitos constitucionais como a liberdade de expressão.
A recente decisão do Supremo Tribunal Federal, que passou a responsabilizar empresas como Meta, Google e TikTok por conteúdos ilegais não removidos após notificação, reacendeu o debate: trata-se de proteção contra abusos digitais ou de uma forma sutil de censura?
O Julgamento do STF e seu Contexto
Em junho de 2025, o STF decidiu, por 8 votos a 3, que as plataformas devem remover imediatamente conteúdos reconhecidamente ilegais assim que forem notificadas — sem necessidade de ordem judicial. Entre os alvos estão incitações ao golpe de Estado, ataques à democracia, apologia ao nazismo, pedofilia e desinformação relacionada à saúde pública.
A decisão foi interpretada como uma tentativa de criar um ambiente digital mais seguro e menos permissivo com crimes digitais, mas críticos apontam a ausência de critérios objetivos e riscos à liberdade de expressão.
Moderação ou Censura?
A moderação de conteúdo é uma prática legítima e até necessária em ambientes digitais. Ela visa impedir abusos, proteger minorias e evitar a propagação de discursos criminosos. No entanto, a linha entre moderação e censura é tênue. Quando a exclusão de conteúdos passa a ser feita de forma preventiva, sem critérios claros, há risco de silenciamento de opiniões legítimas.
A principal crítica à decisão do STF é a possibilidade de transformar empresas privadas em “juízas da internet”, obrigando-as a interpretar o que é ou não legal, sob pena de responsabilização. Isso pode gerar uma postura de excesso de remoção (overblocking), prejudicando conteúdos inofensivos por medo de sanções.
Liberdade de Expressão e o Marco Civil da Internet
A Constituição Federal garante a liberdade de expressão e veda a censura prévia (art. 5º, IV e IX). O Marco Civil da Internet (Lei 12.965/2014) também define que a remoção de conteúdo só deve ocorrer por ordem judicial — salvo em casos específicos como nudez ou cenas de estupro.
A nova interpretação do STF, portanto, parece contrariar esse princípio ao permitir que notificações extrajudiciais tenham efeito vinculante, criando um mecanismo de censura indireta.
Exemplos Práticos e Possíveis Abusos
Plataformas poderão ser pressionadas por governos, grupos organizados ou empresas para retirar conteúdos críticos sob a justificativa de “ilegalidade”, ainda que sem decisão judicial. Isso já ocorre em países autoritários e pode se tornar realidade em democracias frágeis.
Além disso, há risco de instrumentalização política, onde conteúdos de oposição sejam removidos mais rapidamente do que os da situação, configurando censura ideológica.
O Papel das Redes e Caminhos Possíveis
As redes sociais, por sua vez, não podem ser isentas de responsabilidade. Elas lucram com a viralização de conteúdos — inclusive nocivos. Portanto, precisam ter políticas de transparência e mecanismos de apelação justos.
- A solução talvez esteja no meio termo:
-
Manutenção da ordem judicial como regra para remoção;
-
Definição legal clara do que é conteúdo “manifestamente ilegal”;
-
Criação de uma autoridade independente para analisar pedidos urgentes de remoção, como em casos de terrorismo ou apologia ao crime.
Conclusão
A decisão do STF representa um marco na regulamentação digital brasileira, mas também traz preocupações legítimas quanto à liberdade de expressão. O combate ao conteúdo ilegal é necessário, mas precisa ser feito com transparência, equilíbrio e garantias constitucionais. Moderação não pode ser sinônimo de censura, e a defesa da democracia inclui a proteção da pluralidade de vozes — inclusive aquelas com as quais não concordamos.
Bibliografia
-
BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: jun. 2025.
-
BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: jun. 2025.
-
STF – Supremo Tribunal Federal. Decisão sobre responsabilidade de redes sociais por conteúdos ilegais. Repercussão geral no Recurso Extraordinário (RE) 1.037.396. Sessão de 26 de junho de 2025. Disponível em: https://portal.stf.jus.br/. Acesso em: jun. 2025.
-
GOMES, Daniel Sarmento. Liberdade de expressão: estudos de direito constitucional. Rio de Janeiro: Lumen Juris, 2016.
-
DONEDA, Danilo. Direitos fundamentais e proteção de dados pessoais. Rio de Janeiro: Forense, 2021.
-
PAGOTO, Marina. “Moderação de conteúdo e censura nas redes sociais: uma análise à luz do direito constitucional brasileiro.” Revista Brasileira de Direitos Fundamentais & Justiça, v. 13, n. 1, p. 49-72, 2022.
-
BBC Brasil. “Decisão do STF sobre redes sociais reacende debate sobre censura.” Publicado em 26 jun. 2025. Disponível em: https://www.bbc.com/portuguese. Acesso em: jun. 2025.
-
AP News. “Brazil’s Supreme Court holds platforms liable for illegal content.” Publicado em 26 jun. 2025. Disponível em: https://apnews.com. Acesso em: jun. 2025.
-
REUTERS. “Brazil moves toward stricter regulation of online content amid political tensions.” Publicado em 25 jun. 2025. Disponível em: https://www.reuters.com. Acesso em: jun. 2025.
-
NUNES, Djamila. “Liberdade de expressão nas redes: limites e desafios”. Revista Direitos na Rede, v. 7, n. 2, p. 15-30, 2023.