O Supremo Tribunal Federal (STF) formou maioria para alterar substancialmente o Artigo 19 do Marco Civil da Internet — uma norma que define a responsabilidade das plataformas por conteúdos de usuários na ausência de ordem judicial.
A decisão reflete a crescente pressão de autoridades governamentais por leis que permitam obrigar as plataformas a agir contra conteúdos “negativos” — como mensagens antidemocráticas ou materiais prejudiciais a crianças — sem a necessidade de revisão judicial.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Nesse cenário complexo, era fundamental não perder de vista os elementos-chave em jogo. Ainda que os ministros tenham reconhecido os limites de sua atuação na orientação de futuras legislações, a Corte — como guardiã da liberdade de expressão na internet — deveria ter aproveitado a oportunidade para afirmar princípios fundamentais e oferecer um marco claro para os legisladores, incluindo:
Manutenção das isenções de responsabilidade de intermediários. Responsabilizar plataformas pelo conteúdo de terceiros pode parecer uma forma de conter danos, mas eliminar as proteções legais transfere para empresas privadas — muitas vezes sediadas no exterior — o poder de decidir o que é ou não legal, criando incentivos para a remoção de conteúdos lícitos. Obrigações amplas de monitoramento são irrealistas e, como se vê em regimes autoritários nas Américas, difíceis de aplicar. A proteção legal oferece segurança jurídica não apenas para os usuários, mas também para o desenvolvimento saudável dos serviços digitais, como demonstram as experiências dos EUA, UE, Reino Unido e outras economias de mercado liberais.
Limites aos mecanismos de remoção compulsória. A exigência de ordem judicial para definir a responsabilidade em caso de não retirada de conteúdo deve ser preservada em casos nos quais as plataformas não possam fazer avaliações jurídicas apropriadas. O Marco Civil já prevê exceções para situações urgentes — como materiais de abuso sexual infantil — e poderia ser aprimorado para incluir crimes contra o Estado Democrático de Direito, terrorismo, incitação ao suicídio e ofensas contra crianças e adolescentes. Isso deveria ser feito pelo Congresso e pode ser feito sem impor obrigações gerais de monitoramento e preservando garantias contra restrições arbitrárias.
Resistência a mudanças de governo. O marco legal e regulatório não deve ser formulado com base em um cenário político específico ou circunstancial. Ele deve atender adequadamente ao interesse público, respeitando os direitos fundamentais, independentemente das forças políticas no poder.
Para garantir tudo isso, cabe ao legislador desenvolver um modelo legislativo adequado, baseado nos seguintes princípios adicionais:
Estabelecimento de deveres apropriados de diligência. Manter a proteção de responsabilidade dos intermediários é plenamente compatível com a imposição de obrigações regulatórias às plataformas — como processos de moderação transparentes, padrões comunitários mais robustos, colaboração com a sociedade civil e checadores de fatos, mecanismos de recurso e prioridades claras para lidar com riscos e danos. A legislação comparada, especialmente na UE, mostra que manter isenções de responsabilidade é essencial para proteger a liberdade de expressão, mesmo com as plataformas sendo responsabilizadas por meio de órgãos de supervisão independentes.
Institucionalização adequada. O marco regulatório mencionado deve ser implementado dentro de um contexto institucional apropriado. Em linha com modelos como o Digital Services Act da União Europeia ou o Online Safety Act do Reino Unido, é necessário criar agências reguladoras verdadeiramente independentes, com a devida capacitação e financiamento para exercer as funções de supervisão mencionadas neste artigo.
Compreensão da complexidade social. O conteúdo das redes sociais, como reflexo da vida real, é apenas parte de um ecossistema comunicacional e político complexo. Problemas como polarização, coesão social, desengajamento juvenil, comportamentos perigosos ou vulnerabilidade informacional só podem ser devidamente enfrentados por meio de políticas sociais abrangentes, esforços de melhoria da alfabetização e fortalecimento da qualidade democrática.
O Brasil já foi considerado exemplo mundial de regulação digital equilibrada. Embora os novos desafios sejam reais, as respostas deveriam continuar sendo proporcionais e fundamentadas em direitos — e não soluções apressadas para problemas complexos. Qualquer novo marco legal também precisa ser flexível e adaptável a mudanças políticas, em consonância com os princípios democráticos.