Stephanie Gertler Publisher do OBemdito

STF decide que plataformas podem ser responsabilizadas por publicações de usuários

A decisão do Supremo Tribunal Federal passa a valer imediatamente

Foto: Bruno Peres/Agência Brasil
STF decide que plataformas podem ser responsabilizadas por publicações de usuários
Stephanie Gertler - OBemdito
Publicado em 27 de junho de 2025 às 15h48 - Modificado em 27 de junho de 2025 às 18h01

O Supremo Tribunal Federal (STF) decidiu nesta quinta-feira (26) que as redes sociais e demais plataformas digitais devem ser responsabilizadas por conteúdos ilegais publicados por seus usuários. A decisão, inédita, altera a forma como empresas como Google (que controla o YouTube), Meta (controladora de Facebook, Instagram e WhatsApp) e TikTok deverão atuar no Brasil, considerado um dos mercados mais estratégicos para o setor.

Julgamento histórico

Por 8 votos a 3, os ministros do STF entenderam que o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014) é apenas parcialmente constitucional. A norma, em vigor desde 2014, determina que as plataformas só respondem civilmente por conteúdo de terceiros quando descumprem uma ordem judicial específica para remover o material.

Na prática, a lei visava proteger a liberdade de expressão e evitar censura prévia. No entanto, o STF avaliou e decidiu que, diante da disseminação em massa de desinformação, discursos de ódio e conteúdos antidemocráticos, esse modelo deixa de garantir os direitos fundamentais e compromete a própria democracia.

Com a decisão, passa a ser possível responsabilizar as plataformas mesmo sem decisão judicial, desde que os responsáveis pela postagem ou os afetados notifiquem extrajudicialmente a empresa sobre o conteúdo ilegal e ela não tome providências para a remoção.

Postagens com conteúdo criminoso

A Corte estabeleceu que, diante de determinadas categorias de crimes, a retirada do conteúdo pelas plataformas deverá ser imediata, sob pena de responsabilização por danos morais e materiais causados a terceiros. Entre os tipos de conteúdo considerados mais graves estão:

  • Atos antidemocráticos;
  • Crimes de terrorismo;
  • Indução, instigação ou auxílio ao suicídio ou automutilação;
  • Incitação à discriminação por raça, cor, etnia, religião, procedência nacional, orientação sexual ou identidade de gênero — o que inclui manifestações homofóbicas e transfóbicas;
  • Crimes cometidos contra mulheres em razão do sexo feminino, incluindo conteúdos que promovem o ódio ou aversão às mulheres;
  • Crimes sexuais contra pessoas vulneráveis, pornografia infantil e delitos graves contra crianças e adolescentes.

Leia também: Governo muda regra sobre traslado de corpos de brasileiros mortos no exterior

Replicações e impulsionamentos

Outro ponto relevante definido pelos ministros é que, ao considerar uma postagem ilegal por decisão judicial, o Judiciário exige que todos os provedores a retirem, mesmo sem notificação individual. A medida busca, sobretudo, conter a disseminação de conteúdos que o Judiciário já classificou como ilícitos.

Além disso, a responsabilização direta das plataformas será automática — ou seja, sem necessidade de notificação prévia — nos casos em que a divulgação do conteúdo ocorrer por meio de impulsionamento pago ou utilização de redes artificiais de distribuição, como robôs ou chatbots.

Crimes contra a honra

Nos casos de calúnia, difamação e injúria, por exemplo, o juiz ainda precisa decidir pela retirada do conteúdo do ar. Ou seja, nesses casos, permanece válida a regra original do Marco Civil da Internet.

E-mails e aplicativos de mensagens

Por se tratar de mensagens privadas, o STF decidiu manter a regra de que provedores de serviços de e-mail e aplicativos de mensagens instantâneas como, por exemplo, WhatsApp e Telegram, não podem ser responsabilizados diretamente por conteúdo ilegal enviado por seus usuários. A maioria dos ministros entendeu que deve prevalecer o direito à inviolabilidade das comunicações, previsto na Constituição. Assim, nesses casos, continua em vigor o Artigo 19 do Marco Civil.

Regras de autorregulação

O Supremo também determinou que as plataformas deverão elaborar regras próprias de autorregulação. Essas normas devem assegurar transparência no tratamento de notificações extrajudiciais, bem como exigir a publicação de relatórios anuais com dados sobre o volume de notificações recebidas, ações de moderação adotadas e outras informações relacionadas.

Representação no Brasil

Ainda que muitas plataformas já atuem oficialmente no Brasil, a decisão da Corte reforça que todas as empresas que oferecem serviços digitais devem possuir representante legal no país. Essa presença jurídica tem como objetivo garantir que as plataformas cumpram determinações judiciais. Além disso, também forneçam dados solicitados pelo Poder Judiciário e prestem informações sobre políticas de moderação de conteúdo.

Validade da decisão

A decisão do STF passa a valer imediatamente e não será aplicada de forma retroativa. A orientação da Corte valerá até que o Congresso Nacional aprove uma legislação específica sobre a responsabilização de plataformas digitais.

“Enquanto não sobrevier nova legislação, o art. 19 do MCI deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE”, definiu o STF.

(OBemdito com informações Agência Brasil)

Participe do nosso grupo no WhatsApp e receba as notícias do OBemdito em primeira mão.

Mais lidas