A recente decisão do Supremo Tribunal Federal (STF), que declarou a inconstitucionalidade parcial do artigo 19 do Marco Civil da Internet, representa um marco significativo e potencialmente transformador no regime jurídico da responsabilidade das plataformas digitais no Brasil.
Ainda que o acórdão oficial não tenha sido publicado, mantendo um nível considerável de incerteza jurídica, a tese divulgada pelo tribunal já sinaliza uma mudança substancial na forma como o país tratará a moderação de conteúdos em ambientes digitais, especialmente aqueles relacionados a crimes graves e sensíveis. Tal transformação traz à tona um conjunto complexo de desafios jurídicos, técnicos e éticos, demandando uma reavaliação profunda do papel das plataformas no ecossistema digital.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Originariamente, anteriormente ao Marco Civil, a regra era de notificação extrajudicial. Posteriormente, com a promulgação da lei, a regra do artigo 19 estabelecia que provedores de aplicações de internet só poderiam ser responsabilizados civilmente por danos causados por conteúdos de terceiros se não cumprissem ordem judicial para remoção.
Ambas as situações tinham inspiração no modelo norte-americano do safe harbor e buscavam encontrar um delicado equilíbrio entre proteger a liberdade de expressão e assegurar a proteção de direitos individuais e coletivos. A premissa central era evitar que as plataformas se transformassem em agentes de censura privada, submetendo-as a uma intervenção estatal prévia para a responsabilização.
Com a recente decisão do STF, é possível aproximar o futuro da moderação de conteúdo no Brasil ao cenário europeu, que já conta com regulações de moderação de conteúdo. Segundo a tese firmada, para crimes contra a honra ainda será necessária ordem judicial; já para delitos mais graves[1], nasce o dever imediato de remoção, independentemente de ordem judicial.
O descumprimento desses deveres configurará “falha sistêmica”[2] de moderação, abrindo caminho para a responsabilização da plataforma. O ponto, portanto, é entender de que forma, no atual estágio, as plataformas podem evitar uma situação de falha sistêmica.
Nesse sentido, a tese firmada pelo STF aproxima o cenário brasileiro com regulações europeias, as quais determinam a criação, pelas plataformas, de políticas consistentes de moderação dos conteúdos disponibilizados pelos usuários. O modelo europeu, em um momento de incerteza, pode servir como uma referência para as plataformas se adequarem à decisão.
Um dos exemplos mais emblemáticos é a Alemanha, que adotou em 2018 a Lei NetzDG (Network Enforcement Act, na tradução para o inglês), uma legislação pioneira na imposição de obrigações rigorosas para plataformas digitais em relação à remoção de conteúdos ilegais[3].
O NetzDG determina que plataformas digitais com mais de dois milhões de usuários sejam obrigadas a remover ou bloquear conteúdos “obviamente ilegais”, tais como incitação ao ódio, apologia ao crime, pornografia infantil e outros crimes previstos no Código Penal alemão, no prazo máximo de 24 horas após a denúncia. Para casos menos claros, esse prazo pode se estender até sete dias, permitindo que especialistas ou órgãos autorreguladores analisem o conteúdo com maior profundidade.
Além disso, as plataformas precisam manter canais de denúncia acessíveis, publicar relatórios semestrais de transparência e nomear representantes legais para atuar no país. O descumprimento dessas obrigações pode acarretar multas que chegam a € 50 milhões.
A experiência prática da aplicação do NetzDG revelou tanto avanços quanto limitações importantes. Houve um aumento expressivo no volume de denúncias, especialmente em plataformas como YouTube e X, que facilitaram o acesso aos canais de denúncia.
Entretanto, a taxa efetiva de remoção dos conteúdos denunciados é relativamente baixa — cerca de 15% no YouTube[4] — o que indica que, na maioria dos casos, o entendimento foi de que a denúncia não corresponde a conteúdos que efetivamente infringem a legislação penal alemã. Essa realidade evidencia a complexidade e dificuldade da triagem eficaz diante do alto fluxo de denúncias.
Há ainda uma preocupação constante com o fenômeno do overblocking, ou seja, a remoção excessiva e preventiva de conteúdos para evitar possíveis sanções financeiras, o que pode resultar em restrição da liberdade de expressão e remoções indevidas.
Essa dinâmica reforça críticas que apontam para uma “privatização da justiça” (que, inclusive, motivaram a lógica estabelecida pelo MCI, adotando um sistema que não mais privilegiava o safe harbour das plataformas digitais), relacionada à transferência, para as plataformas, da responsabilidade de decidir sobre a legalidade de conteúdos, função tradicionalmente exercida pelo Poder Judiciário e submetidas a procedimentos que respeitam direitos fundamentais consolidados e o devido processo legal.
No mesmo sentido, a União Europeia aprovou, em 2022, o Digital Services Act (DSA), que consolida um novo marco regulatório para o ambiente digital, ampliando e detalhando as responsabilidades das plataformas digitais de maneira mais equilibrada, transparente e sustentável. O DSA impõe obrigações de transparência que incluem relatórios padronizados, auditorias independentes e maior clareza sobre as decisões de moderação.
Além disso, o DSA exige que as grandes plataformas realizem avaliações periódicas de riscos sistêmicos para a sociedade, como disseminação de desinformação, discurso de ódio e ameaças à integridade de processos eleitorais, adotando medidas proativas para mitigar esses riscos.
Outro ponto relevante do DSA é a cooperação estreita com autoridades públicas e a harmonização de critérios de moderação em toda a União Europeia, o que contribui para uniformizar práticas e reduzir inseguranças regulatórias.
A regulamentação europeia também diferencia as obrigações conforme o porte e o tipo de plataforma: marketplaces têm deveres específicos relacionados à verificação de vendedores e rastreabilidade dos produtos comercializados, enquanto redes sociais de grande porte enfrentam obrigações rigorosas para mitigar riscos decorrentes do conteúdo publicado.
As empresas terão o desafio de estruturar políticas e protocolos sólidos, bem como de adotar ferramentas tecnológicas avançadas, capazes de assegurar uma moderação de conteúdo realmente efetiva. Ao desenvolverem políticas de moderação eficientes e transparentes, as plataformas poderão criar barreiras de proteção contra eventuais responsabilizações, evidenciando seu compromisso com a promoção e manutenção de um ambiente digital seguro e responsável.
Esse esforço é essencial não apenas para cumprir as exigências legais, mas também para fortalecer a confiança dos usuários e preservar a integridade do debate público, além de minimizar riscos de danos reputacionais. Esse cenário tem como desafio a necessidade de encontrar um equilíbrio cuidadoso entre a proteção dos direitos individuais, sobretudo a liberdade de expressão, e a legítima necessidade de combate a conteúdos ilícitos que ameaçam direitos fundamentais e a ordem democrática.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Além disso, evidenciam o desafio de traduzir tipos penais complexos em protocolos claros e operacionalizáveis para moderação, o que demanda equipes especializadas e treinamento técnico-jurídico. No atual momento, de reestruturação do marco legal para moderação de conteúdo digital, o modelo europeu, especialmente o DSA, pode servir como referência para a adoção de políticas efetivas de moderação, evitando-se, assim, a “falha sistêmica” a que se refere a tese do STF.
A construção de um ambiente digital democrático, seguro e que respeite os direitos fundamentais depende da capacidade do país em absorver essas lições e implementar soluções jurídicas, técnicas e éticas integradas, que contemplem transparência, cooperação regulatória e respeito à pluralidade.
[1] A lista inclui crimes como atos contra o Estado Democrático de Direito, terrorismo, induzimento, instigação ou auxílio ao suicídio ou automutilação, crimes de ódio relacionados a raça, cor, etnia, religião, origem, gênero ou orientação sexual, violência contra a mulher, pornografia infantil, crimes sexuais contra vulneráveis e tráfico de pessoas
[2] De acordo com o informativo da tese publicado pelo STF, “considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa”.
[3] O Departamento Federal de Justiça alemão publicou um guia que dá algumas diretrizes sobre a legislação: https://www.bundesjustizamt.de/SharedDocs/Downloads/DE/NetzDG/Leitlinien_Geldbussen_en.pdf?__blob=publicationFile&v=3
[4] De acordo com o relatório de 2023, publicado pela plataforma, disponível em: https://transparencyreport.google.com/netzdg/youtube?hl=pt_BR