STF impõe responsabilidade às redes sociais e Brasil se alinha a tendência global de regulação digital
- Karina Pinto
- 29 de jun.
- 3 min de leitura

O Supremo Tribunal Federal (STF) formou maioria, nesta semana, para responsabilizar redes sociais e plataformas digitais por conteúdos perigosos mantidos no ar, mesmo após denúncias. A decisão, com repercussão geral, marca um novo capítulo na luta contra a desinformação e os discursos de ódio no ambiente digital, ao determinar que empresas como Meta, X (ex-Twitter) e YouTube devem responder legalmente se forem omissas na moderação de conteúdos nocivos.
A medida, relatada pelo ministro Alexandre de Moraes, rompe com a lógica de impunidade sustentada até aqui pela autorregulação das plataformas. Para Moraes, “a internet não é um território sem lei”, e as empresas não podem seguir lucrando com algoritmos que amplificam o extremismo, a violência simbólica e a mentira como estratégia de engajamento.
Embora criticada por setores que temem censura privada, a decisão do STF se alinha ao que outras democracias têm feito para tentar frear o caos informacional. A preocupação não é nova — e também não é exclusividade do Brasil.
Exemplos globais de fiscalização das redes sociais:
União Europeia: Em vigor desde 2024, a Lei de Serviços Digitais (DSA) obriga plataformas a remover rapidamente conteúdos ilegais, garantir transparência sobre algoritmos e realizar auditorias independentes. As multas podem chegar a 6% do faturamento global. Para a UE, o foco é proteger os direitos fundamentais dos cidadãos em ambiente digital.
Reino Unido: O Online Safety Act, aprovado em 2023, exige que redes sociais tomem medidas proativas contra abuso infantil, bullying e terrorismo. A legislação estabelece penalidades pesadas para empresas que não implementarem sistemas de segurança eficazes.
Austrália: Adotou um modelo que obriga plataformas a negociar com veículos jornalísticos, garantindo remuneração justa por conteúdo noticioso. Além disso, o país criou um código de conduta para combater desinformação.
Estados Unidos: Embora ainda sem uma legislação federal, cresce a pressão para revisar a Seção 230, que protege as plataformas de responsabilidade civil. Casos de violência incentivada online e interferência em eleições acenderam o alerta no Congresso e entre procuradores estaduais. Mais recentemente, Trump determinou vigilância às redes sociais de imigrantes.
A decisão do STF, portanto, não é um gesto isolado. Ela ocorre em um momento em que autoridades do mundo todo discutem como responsabilizar big techs por danos sociais causados pela falta de controle no ambiente virtual.
No Brasil, o PL das Fake News (PL 2630/2020), que propõe regras mais rígidas para moderação de conteúdo, transparência e rastreamento de mensagens em massa, continua parado no Congresso, sob forte lobby das plataformas e resistência política. Enquanto isso, cresce o número de casos em que redes sociais são utilizadas como palco para linchamentos virtuais, ameaças, ataques à democracia e promoção de crimes.
Críticos da decisão temem que a medida abra espaço para abusos ou que plataformas comecem a remover conteúdos de forma excessiva. Mas especialistas em direito digital argumentam que liberdade de expressão não é licença para a desinformação nem para o discurso de ódio — e que a responsabilidade das plataformas deve estar à altura do poder que elas detêm.
A posição do STF envia um recado claro: lucrar com engajamento sem responsabilidade não é mais aceitável. A ausência de regras tem favorecido o colapso do debate público e o enfraquecimento das instituições democráticas. Regular não é censurar. É criar um ambiente em que a liberdade seja exercida com segurança, respeito e responsabilidade.
Comments