Este é o primeiro artigo de uma série de comentários sobre a tese recentemente publicada pelo Supremo Tribunal Federal (STF) a respeito do artigo 19 do Marco Civil da Internet.
Após quase oito meses de deliberação, o STF concluiu pela ocorrência de uma inconstitucionalidade parcial progressiva do art. 19 do MCI e, a partir disso, redefiniu o regime de responsabilidade civil e as obrigações dos provedores de aplicação, com forte inspiração no Digital Services Act (DSA) aprovado na União Europeia em 2022. Porém, a importação tupiniquim tende a gerar mais dúvidas do que soluções.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Regramento original do MCI para provedores de aplicação
O Marco Civil da Internet previu dois regimes de responsabilidade civil de provedores de aplicação. O art. 19 trazia a regra geral: o provedor de aplicação não responde pelo conteúdo gerado por terceiros, salvo se descumprir uma ordem judicial de remoção. O art. 21 do MCI trazia a regra especial, de responsabilidade subsidiária do provedor de aplicação que, uma vez notificado, deixasse de remover conteúdo íntimo divulgado sem a autorização dos participantes.
Esperava-se ainda um regramento especial para as situações de violação a direitos autorais, por expressa indicação do art. 19, § 2º, que nunca aconteceu e, por isso, também este tema acabou abarcado na regra de notificação e retirada do art. 21.
Novos regimes instituídos pelo STF
A tese do STF altera por completo a lógica original do MCI. Agora, o art. 21 passa a ser a regra geral e o art. 19, uma das regras especiais. Mas a principal novidade não é essa: o STF inaugurou uma hipótese totalmente nova de responsabilidade direta do provedor de aplicações, que não possui paralelo em nenhuma das legislações analisadas ao longo dos debates (notadamente, dos Estados Unidos e União Europeia).
De acordo com o STF, passariam a existir três regimes especiais:
Responsabilidade por descumprimento de ordem judicial: aplicação do art. 19 em caso de crime contra a honra (desde que não seja reiterado) e conteúdo trocado por e-mail, aplicativos de reunião privada e serviços de mensagem privada;
Responsabilidade direta ou presumida: anúncios ou impulsionamentos pagos, conteúdos de robôs ou chatbots e conteúdos ilícitos graves (rol taxativo) circulados em massa;
Código de Defesa do Consumidor: marketplaces.
Situações que não se encaixem em um dos regimes especiais seguirão a regra geral, que passa a ser a do art. 21 do MCI: o provedor de aplicações é responsável se, após receber notificação extrajudicial, não tornar indisponível conteúdo ilícito.
Esse conteúdo compreende ilícitos civis gerais, violações a direitos autorais e ilícitos penais não enquadrados no rol taxativo que desencadeia a responsabilidade direta. Veja-se que a nova configuração acaba por atribuir tratamento mais rigoroso a ilícitos civis “comuns”, cuja remoção depende de mera notificação, do que a ilícitos penais (crime contra a honra), que dependem de ordem judicial.
Pontos em aberto
Qual é, porém, a real fronteira entre as regras especiais e a regra geral? A manutenção dos crimes contra a honra no guarda-chuva do art. 19 teve por objetivo preservar a liberdade de expressão, já que a ilicitude nos casos de calúnia, difamação e injúria nem sempre é clara. Porém, se o crime contra a honra for cometido contra mulher, em razão de gênero, a plataforma é diretamente responsável (art. 141, § 3º, do Código Penal).
Nestes casos, a remoção deve ser imediata. O mesmo pode acontecer nas situações envolvendo raça ou etnia. Como a plataforma não tem obrigação de aguardar a ordem judicial, a ressalva do STF para os crimes contra a honra pode acabar esvaziada pela ação proativa das plataformas diante do rol amplo – apesar de taxativo – de situações de responsabilidade direta.
Outro problema está na referência aos provedores de e-mail, serviços de reunião e de mensagem privada. Diversamente do que ocorre em redes sociais, marketplaces e quaisquer páginas da internet de acesso público, tais serviços tem como característica a natureza privada da comunicação. Apenas o remetente e o destinatário da mensagem têm acesso, a priori, ao seu conteúdo, que geralmente é protegido por criptografia.
Embora a preocupação aqui talvez tenha sido com relação a grupos, não se sabe de que forma a jurisprudência avaliará a necessidade de indicação clara e específica do conteúdo exigida pelo art. 19, § 1º, do MCI. Em alguns casos, não há como gerar URLs para a remoção de conteúdo.
Não por outro motivo, tais serviços não estavam no escopo original do art. 19, já que comunicações privadas não deveriam se sujeitar ao mesmo filtro das comunicações públicas. O que justifica a intervenção sobre mensagens e reuniões privadas?
Além disso, com a ampliação das hipóteses de responsabilização dos provedores de aplicação, há uma tendência de aumento de demandas judiciais para restabelecer conteúdo em vez de pedidos de remoção. E isso pode dificultar a produção probatória, afinal, o conteúdo terá sido indisponibilizado. Sistemas como o DSA preveem procedimentos extrajudiciais que podem contribuir na instrução de eventual demanda, por exemplo.
A decisão do STF impôs novos deveres principais de moderação de conteúdo e delegou às plataformas a responsabilidade de editar regulamentações cuidando de deveres anexos, como o devido processo legal e canais e comunicação com usuários. A falta de orientações precisas sobre como as plataformas devem cumprir tal obrigação pode impactar o acesso à justiça.
Alcance temporal subjetivo da decisão do STF
Talvez as dúvidas aqui mencionadas sejam respondidas com a versão final do acórdão, que ainda não está disponível. Este é, aliás, outro tema de discussão: a partir de quando esse novo regime passa a valer? Processos em andamento serão afetados? Como fica o exercício da defesa nos casos já contestados com base na regra até então existente?
O próprio STF não nega que acabou ocupando um vácuo deixado pelo Legislativo e criou verdadeiro regramento para as plataformas digitais até que o Congresso aprove uma lei sobre a matéria. De acordo com o artigo 1º da Lei de Introdução à normas do Direito Brasileiro, salvo disposição contrária, a lei começa a vigorar em todo o país 45 dias depois de oficialmente publicada. Fatos ocorridos antes dessa data não estão sujeitos à nova lei.
Ao modular os efeitos da sua decisão, no entanto, o STF determinou que ela “somente se aplicará prospectivamente, ressalvadas decisões transitadas em julgado”, deixando subentendido que fatos ocorridos antes mesmo da decisão também estarão sujeitos às novas regras criadas por ela, dando maior alcance à decisão do que uma lei federal sujeita a todo o processo legislativo.
As preocupações exaradas pelos ministros na leitura de seus votos também deixaram evidente que os problemas enfrentados pela tese de julgamento foram projetados sobre os serviços de grandes plataformas digitais, como Facebook, Instagram, TikTok, X e Telegram.
Porém, esses mesmos problemas se aplicam a todos os provedores de aplicação que hospedam conteúdo gerado por terceiros? Pequenas plataformas também estão sujeitas ao MCI e, tal como posta, a tese impõe responsabilidade direta inclusive para provedores com menor alcance e menos recursos de moderação de conteúdo. Esse é outro aspecto “inovador” sem precedentes no DSA, que introduziu obrigações aos provedores de forma gradual e considerando o seu alcance.
Uma premissa equivocada
O desfecho talvez fosse diferente se o STF não tivesse assumido a premissa de que o art. 19 representaria uma imunidade. Afinal, essa imunidade nunca existiu: vigorou por quase dez anos um regime de responsabilidade civil subjetiva que tinha como condição o descumprimento de ordem judicial.
E por que uma ordem judicial, e não uma notificação? Porque a fronteira entre o lícito e o ilícito nem sempre é clara, especialmente para as partes envolvidas e para plataformas privadas. O juízo de ponderação judicial permitia que se partisse de uma restrição externa a direitos fundamentais, que até então poderiam ser exercidos de forma plena.
A nova configuração do STF valida um sistema de restrições internas às liberdades online. O controle da licitude é repassado aos usuários, por meio das notificações, e às plataformas, que têm agora inúmeros motivos para atuar em prol da remoção de conteúdos de terceiros.
É curioso, portanto, que o STF tenha externado tantas preocupações com o poder de algoritmos, da inteligência artificial e grandes plataformas e, ao mesmo tempo, tenha concluído justamente por esvaziar o papel da ponderação judicial que o art. 19 assegurava.