Nos últimos meses, tem sido relatado um aumento de restrições indevidas em contas nas redes sociais e outras plataformas digitais de armazenamento em nuvem de jornalistas, comunicadores, pessoas públicas e demais cidadãos que utilizam essas ferramentas como instrumento de trabalho, divulgação de ideias e interação com a sociedade.
É perceptível um aumento preocupante de casos em que contas são desabilitadas, suspensas ou têm o alcance de seus conteúdos artificialmente reduzido — em subterfúgio conhecido como shadowban, pelos provedores de aplicação que controlam as plataformas de mídia social, sob alegações genéricas como “violação das diretrizes” ou suposta “pornografia”, ainda que se trate de conteúdos que não guardam qualquer relação com o tema.
Tais decisões são, em geral, automatizadas, baseadas em sistemas de inteligência artificial, carecem de revisão humana adequada e não oferecem meio apropriado para contestação ou defesa.
A censura privada dessas plataformas, sem qualquer justificativa, aviso prévio ou oportunidade de preservação do material muitas vezes produzido ao longo de anos, afeta milhares de usuários no Brasil. Muitas das vítimas são jornalistas, escritores, advogados ou pessoas públicas que têm em seus perfis produção de caráter informativo, científico e analítico. Antes da mensagem de desabilitação sumária, esses usuários, via de regra, nunca recebem qualquer aviso ou notificação sobre publicações em sua conta que eventualmente pudessem violar as regras da comunidade ou os termos de uso.
Em alguns casos, a única razão alegada pelos provedores de aplicação, como a Meta ou a Google, por exemplo, é de uma suposta e inexistente divulgação de “exploração sexual infantil” e “pornografia”, sem indicação de conteúdo específico, sem comprovação da suposta infração e sem direito adequado de defesa.
Os provedores de aplicação, em grande parte desses casos, não têm demonstrado disposição em reverter administrativamente as medidas de verdadeira censura privada, restando aos usuários recorrer ao Poder Judiciário para restabelecer suas contas e preservar sua liberdade de expressão.
Essa prática representa uma forma indevida de censura privada e digital, que afeta diretamente o pluralismo de vozes e o direito constitucional à livre manifestação do pensamento, pilares essenciais da democracia. O banimento sumário de contas e perfis impede os usuários de produzirem ou gerirem quaisquer tipos de conteúdo nas plataformas de armazenamento ou mídias digitais, e que seus seguidores tenham acesso aos conteúdos lá disponibilizados, caracterizando uma censura prévia de dupla geração.
Cabe destacar que, nos recentes julgamentos do STF nos Temas 987 e 533, relacionados ao art. 19 do Marco Civil da Internet, a corte firmou uma nova compreensão sobre a responsabilidade das plataformas digitais. No RE 1.037.396/SP, o Supremo reconheceu a inconstitucionalidade parcial e progressiva do art. 19, afirmando que a exigência de ordem judicial prévia e específica não garante proteção suficiente aos direitos fundamentais.
A corte passou a admitir a responsabilidade dos provedores de aplicação, especialmente em casos de circulação massiva de conteúdos ilícitos ou de extrema gravidade, como racismo, terrorismo e pornografia infantil, situações em que a remoção deve ser imediata, independentemente de ordem judicial prévia
A decisão consagrou o dever de cuidado das plataformas, que devem atuar de forma diligente e responsável na prevenção e remoção de conteúdos ilícitos, e previu que a falha sistêmica na moderação poderá gerar responsabilidade civil. Além disso, o STF modulou os efeitos da decisão, determinando que ela tem aplicação apenas prospectiva, para casos futuros, resguardando situações já transitadas em julgado, e reforçou a obrigatoriedade de que as empresas com atuação no Brasil mantenham sede e representante com plenos poderes no país, aptos a responder por determinações judiciais e administrativas
Outro ponto relevante é a previsão de mecanismos de transparência e devido processo: as plataformas deverão criar sistemas acessíveis de notificação, canais de atendimento amplamente divulgados, relatórios anuais sobre remoção de conteúdo e processos de recurso, garantindo que o usuário compreenda as razões de cada medida e tenha direito de defesa. Essas diretrizes, de observância obrigatória, impõem um novo paradigma de regulação digital baseado na responsabilidade compartilhada e na preservação da liberdade de expressão como valor constitucional central.
Nesse contexto, entende-se que as plataformas não seguem tais diretrizes e que quaisquer futuras suspensões, desabilitações ou exclusões de conteúdo dos usuários devem observar rigorosamente esses critérios, garantindo não apenas a transparência e fundamentação das decisões, mas também o direito de defesa e revisão administrativa, de forma a respeitar o devido processo determinado pelo STF. Tal observância é essencial para que se mantenha o equilíbrio entre a liberdade de expressão e a responsabilidade das plataformas, evitando arbitrariedades que possam cercear direitos fundamentais do usuário.
No mesmo julgamento, o STF também apreciou o Tema 533 (RE 1.057.258/MG), em conjunto com o Tema 987, consolidando um verdadeiro novo regime constitucional de responsabilidade civil das plataformas digitais. A corte afirmou que o art. 19 do Marco Civil da Internet, que exige ordem judicial específica para responsabilizar provedores, aplica-se exclusivamente aos casos de ofensa à honra e difamação, não se estendendo a outras categorias de ilícitos digitais.
Já para situações de crimes graves ou falhas sistêmicas, o STF determinou que as plataformas podem ser responsabilizadas diretamente, sem necessidade de prévia notificação judicial ou extrajudicial, com base no art. 927 do Código Civil e no art. 14, §1º, II, do Código de Defesa do Consumidor
Entre essas hipóteses, a tese fixou rol taxativo de ilícitos cuja omissão na remoção gera responsabilidade civil: a) crimes contra crianças e adolescentes; b) induzimento, instigação ou auxílio ao suicídio e à automutilação; c) terrorismo e atos preparatórios; d) apologia ou incitação à violência e aos crimes contra o Estado democrático de Direito.
Essas situações configuram o que o tribunal chamou de “falha sistêmica imputável ao provedor”, caracterizada pela ausência de medidas de segurança e precaução adequadas, especialmente quando há uso massivo de inteligência artificial para distribuição de conteúdo ilícito ou desinformação. A tese também ampliou o alcance da responsabilidade solidária nos casos em que os próprios provedores contribuem para a disseminação de conteúdo lesivo, por exemplo, em anúncios pagos, postagens patrocinadas ou perfis anônimos e automatizados (chatbots e robôs), situações em que se entende haver ato próprio da plataforma, e não apenas de terceiro.
Outra inovação significativa foi a previsão expressa de que, recebida notificação extrajudicial sobre conteúdo ilícito, o provedor passa a ter o dever de agir imediatamente para tornar o material indisponível, sob pena de responder nos termos do art. 21 do Marco Civil da Internet. Em complemento, o STF determinou que os provedores editem normas internas de autorregulação abrangendo sistemas de notificação, processos de revisão e relatórios anuais de transparência, inclusive sobre anúncios, impulsionamento e uso de algoritmos e IA na moderação de conteúdo.
As recentes decisões do STF inauguram uma nova etapa no enfrentamento jurídico dos desafios do mundo digital. A internet, outrora concebida como um espaço de liberdade plena e autorregulação espontânea, consolidou-se hoje como uma infraestrutura essencial da vida democrática, sobre a qual se assentam dimensões centrais da existência contemporânea: o trabalho, a comunicação, a informação, a educação e a própria formação da opinião pública.
Nesse cenário, as plataformas deixaram de ser meros intermediários técnicos para se tornarem atores políticos e econômicos de primeira ordem, com poder efetivo de ordenar o debate público e de definir o alcance das vozes individuais. Por isso, as decisões do STF reafirmam que a liberdade de expressão, longe de ser um privilégio, é um direito humano fundante, cuja proteção demanda não apenas a abstenção do Estado, mas também deveres positivos de vigilância e transparência por parte dos provedores privados que operam no ambiente digital.
O avanço tecnológico, especialmente com o uso massivo de inteligência artificial e algoritmos de recomendação, intensifica os riscos de decisões automáticas, discriminatórias ou abusivas. O dever de cuidado imposto pelo Supremo é, nesse sentido, um convite à responsabilidade ética e institucional das plataformas, que passam a compartilhar com o Estado e a sociedade civil o encargo de garantir um ambiente digital compatível com os valores da democracia e dos direitos humanos.