(Foto: Gustavo Moreno/STF)

STF impõe censura automática a redes sociais e acende alerta sobre liberdade de expressão

Com nova tese, Corte obriga plataformas a remover “condutas antidemocráticas” sem ordem judicial e expõe o Brasil a cenário inédito no mundo

O Supremo Tribunal Federal (STF) aprovou por 8 votos a 3 uma mudança histórica — e polêmica — no controle de conteúdo nas redes sociais. A Corte decidiu que plataformas digitais devem remover imediatamente publicações classificadas como “condutas antidemocráticas”, mesmo sem decisão judicial. Caso descumpram, as empresas serão responsabilizadas civilmente, podendo sofrer multas e outras sanções.

A tese derruba parcialmente o artigo 19 do Marco Civil da Internet, que até então só responsabilizava as plataformas se houvesse ordem judicial de remoção. Agora, as redes sociais passam a ter o dever legal de censurar conteúdos considerados ilícitos de forma preventiva, sob pena de punições.

O escopo da decisão inclui postagens que envolvam atos contra o Estado Democrático de Direito, golpe de Estado, incitação ao ódio, racismo, terrorismo, pornografia infantil, tráfico de pessoas e violência contra mulheres. Além disso, conteúdos discriminatórios por raça, religião, sexualidade ou identidade de gênero também entram na lista de remoção imediata.

Ao transferir para as plataformas a responsabilidade de decidir o que é “antidemocrático”, o STF cria um modelo de censura automatizada sem precedentes em democracias ocidentais — e potencialmente abre caminho para a autocensura em larga escala.

Críticos apontam que a medida amplia demais os critérios subjetivos sobre o que pode ser interpretado como ameaça à democracia, o que pode gerar exclusão de postagens legítimas por receio jurídico. Juristas como André Marsiglia e Venceslau Tavares alertam para o risco de que críticas políticas, inclusive históricas como pedidos de impeachment, possam ser enquadradas como “ameaças ao Estado”.

A inteligência artificial deve desempenhar papel central nesse novo regime, já que caberá aos algoritmos reconhecer e remover conteúdos sensíveis. Para evitar responsabilização, as redes devem agir com rigor preventivo — mesmo diante de ambiguidades legais.

Durante a votação, o ministro Luís Roberto Barroso revelou que a tese foi construída em reunião reservada entre os ministros, antes do julgamento em plenário. O relator, ministro Dias Toffoli, defendeu que a medida era necessária para proteger a democracia de riscos digitais.

Brasil se isola com regulação imposta diretamente pelo Judiciário

A decisão do STF coloca o Brasil em uma posição única no cenário global: é o único país em que o Poder Judiciário impôs unilateralmente regras sobre moderação de conteúdo digital, sem passar por debate no Legislativo ou mediação de um órgão regulador.

Confira o comparativo com outras jurisdições:

País/ModeloOrigem da RegulaçãoResponsabilização por conteúdo de terceirosGatilhos de punição
🇧🇷 STF (novo modelo)Judiciário (STF)Sim, mesmo sem ordem judicialNão remover após notificação extrajudicial
🇧🇷 Marco Civil (antes)LegislativoNão, exceto em casos como nudez não consensualApenas com ordem judicial
🇺🇸 Estados UnidosLegislativoNão, salvo por ordem judicialNão acatar decisão judicial
🇪🇺 União EuropeiaLegislativoSim, mas só após descumprir obrigações legais ou ordem judicialNão cumprir obrigações legais específicas
🇻🇪 VenezuelaExecutivo com LegislativoSim, redes punidas por decisão administrativaSem necessidade de ordem judicial

Em países como os Estados Unidos, plataformas são imunes à responsabilização por conteúdos de terceiros, salvo por ordem judicial. Já a União Europeia adotou uma abordagem equilibrada: impõe obrigações legais claras às plataformas, mas mantém o Judiciário como último recurso e evita decisões generalistas.

Mesmo na Venezuela, onde o controle estatal é severo, as leis foram aprovadas via Legislativo, ao menos preservando formalmente a separação dos Poderes. No Brasil, a decisão foi diretamente imposta pelo STF, sem intermediação institucional.

Consequências imediatas da decisão do STF:

  • Redes sociais devem remover conteúdos sensíveis sem ordem judicial, ou serão punidas;
  • A responsabilidade civil passa a valer para novas postagens;
  • Plataformas devem implementar mecanismos internos de censura automática, incluindo uso de inteligência artificial;
  • A ausência de órgão regulador transfere o dever de julgamento às empresas, sob risco de “falha sistêmica”;
  • Se a Justiça considerar uma remoção indevida, não haverá indenização ao usuário, mas o conteúdo deverá ser restaurado.

O Brasil entra em um novo e controverso capítulo da governança digital, onde o Judiciário assume o protagonismo na regulação do discurso. O precedente abre brechas para insegurança jurídica, autocensura e moderação política arbitrária — sem instância reguladora independente ou previsão de salvaguardas democráticas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *