A Responsabilidade das Plataformas Digitais por Conteúdo de Usuários: Limites, Liberdade de Expressão e Censura Preventiva

O Supremo Tribunal Federal (STF) deu um passo significativo no debate sobre a responsabilidade das plataformas digitais ao decidir, recentemente, que empresas como Facebook, X (antigo Twitter), TikTok e outras podem ser responsabilizadas pela permanência de conteúdo considerado ilícito, mesmo sem decisão judicial prévia. A decisão foi tomada no âmbito do julgamento conjunto de ações que discutiam a constitucionalidade de dispositivos do Marco Civil da Internet.

A tese firmada prevê que, em casos de violação manifesta a direitos fundamentais — como discursos de ódio, fake news, apologia ao crime, incitação à violência e ataques à democracia —, as plataformas  podem ser responsabilizadas civilmente pela manutenção de conteúdos ilícitos, mesmo na ausência de ordem judicial prévia.

A Decisão do STF e a Reinterpretação do Marco Civil

O artigo 19 do Marco Civil da Internet condicionava a responsabilidade das plataformas à existência de ordem judicial. No entanto, o STF modulou esse entendimento, autorizando a responsabilização direta das plataformas quando a ilegalidade do conteúdo for evidente e sua permanência causar danos relevantes.

Esse novo paradigma fortalece o papel das plataformas na moderação de conteúdo e na garantia de um ambiente digital saudável. Por outro lado, acende um alerta sobre os riscos de censura privada e remoção sumária ou desproporcional de conteúdos, principalmente em contextos políticos e ideológicos polarizados.

Liberdade de Expressão x Censura Preventiva

A liberdade de expressão é direito fundamental assegurado pela Constituição Federal, sendo um dos pilares do Estado Democrático de Direito. Contudo, não se trata de direito absoluto, podendo sofrer limitações quando confrontado com outros direitos igualmente protegidos, como a honra, a imagem e a segurança coletiva.

A preocupação com a censura preventiva é legítima. O novo entendimento impõe às plataformas uma função quase jurisdicional, exigindo que avaliem, de forma autônoma, a manifesta ilicitude de determinados conteúdos e os retirem do ar sob pena de responsabilização.

Isso pode levar à remoção excessiva e injustificada de postagens, o que compromete a pluralidade de ideias e o livre debate, essenciais ao ambiente democrático.

Implicações para Contratos e Termos de Uso

Com a nova diretriz do STF, torna-se ainda mais relevante que as plataformas digitais ajustem seus Termos de Uso e Políticas de Moderação com regras claras sobre:

  • Critérios de remoção de conteúdo;
  • Procedimentos de notificação e resposta;
  • Mecanismos de recurso e reavaliação de remoções;
  • Garantia de transparência e due process aos usuários afetados.

As empresas devem, ainda, reforçar mecanismos internos de compliance digital e capacitação das equipes de moderação, sob pena de enfrentarem demandas judiciais fundadas em omissão ou abuso.

Considerações

A decisão do STF representa um avanço no combate a práticas abusivas e ilegais no ambiente virtual, mas também impõe um desafio significativo às plataformas digitais: encontrar o ponto de equilíbrio entre a proteção de direitos fundamentais e a garantia da liberdade de expressão.

No atual cenário, as empresas de tecnologia devem adotar uma postura ativa e transparente, ajustando suas políticas de moderação e contratos para atender aos novos parâmetros definidos pelo Supremo Tribunal Federal. Da mesma forma, as empresas que contratam serviços dessas plataformas devem estar atentas às mudanças regulatórias e contratuais, exigindo cláusulas claras quanto à responsabilidade pelo conteúdo e às medidas de compliance adotadas.

Por: Jéssica Donato | BGI Advogados | Julho de 2025