A responsabilidade civil por danos causados no ambiente digital é um dos temas mais desafiadores do Direito Civil contemporâneo. No Brasil, o avanço tecnológico e a popularização das redes sociais tornaram urgente a definição de regras claras sobre quem responde por conteúdos ofensivos ou ilícitos publicados na internet.
Até a promulgação do Marco Civil da Internet (Lei 12.965/2014), o ordenamento jurídico brasileiro carecia de uma legislação específica para lidar com esses conflitos. A jurisprudência oscilava entre entender que as plataformas de internet (como redes sociais e buscadores) tinham responsabilidade objetiva, mesmo sem aviso prévio, ou que seriam apenas intermediárias neutras, sem dever de fiscalização.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
O Marco Civil buscou resolver essa incerteza por meio do artigo 19, que estabeleceu a regra geral de que as plataformas só poderiam ser responsabilizadas civilmente se, após ordem judicial específica, não removessem o conteúdo ilícito.
Havia, até então, duas exceções: infrações a direitos de autor e, conteúdos com cenas de nudez ou atos sexuais de caráter privado, sendo que nestes casos a remoção deveria acontecer após a notificação extrajudicial do interessado. Essa norma tentou equilibrar o combate a abusos com a proteção à liberdade de expressão e à inovação tecnológica.
Com o tempo, no entanto, surgiram novos desafios: a disseminação de fake news, o uso de robôs e perfis falsos, os conteúdos patrocinados e a lentidão da via judicial para a retirada de conteúdos lesivos. Diante disso, o STF passou a debater se o artigo 19, como estava redigido, ainda atendia aos princípios constitucionais, em razão da discussão proposta em dois recursos extraordinários.
Votos dos ministros mostram visões divergentes
O STF analisou o artigo 19 do Marco Civil da Internet. Para Dias Toffoli, a norma era inconstitucional, pois as plataformas atuam ativamente na gestão de conteúdo com IA e algoritmos. Defendeu, então, a remoção a partir de notificação simples ou imediata em casos graves.
Luiz Fux viu colisão entre liberdade de expressão e direitos fundamentais, propondo dever de moderação e responsabilidade após ciência do ilícito. Alexandre de Moraes entendeu que plataformas têm papel ativo e devem ser responsabilizadas solidariamente por conteúdos impulsionados ou direcionados por algoritmos.
Gilmar Mendes defendeu responsabilidade das plataformas após notificação de conteúdos criminosos e propôs órgão regulador. Flávio Dino propôs equilíbrio entre liberdade e responsabilidade: remoção após notificação extrajudicial, exceto em ofensas que exigem decisão judicial. Cristiano Zanin criticou a exigência de ordem judicial prévia e defendeu modelo com notificações, relatórios e atuação proativa para mitigar riscos.
Luís Roberto Barroso viu a necessidade de remoção imediata em crimes graves, mesmo sem ordem judicial, com punição só se houver notificação. Cármen Lúcia acompanhou Barroso e destacou descumprimento de ordem judicial como gerador de responsabilidade.
Na ala oposta, André Mendonça defendeu a constitucionalidade do artigo: viu a liberdade de expressão como base da democracia e criticou a moderação excessiva, que pode levar à censura prévia. Edson Fachin viu risco de “censura colateral” sem ordem judicial, postura também adotada por Nunes Marques.
Ministros se reuniram em busca de consenso intermediário
Observa-se que há particularidades e diferenças entre os votos em relação ao momento da ocorrência da responsabilização ou não dos provedores, ou seja, se seria somente após a notificação judicial ou extrajudicial, ou se caberia caso o conteúdo não fosse removido automaticamente pelos deveres de vigilância e monitoramento das plataformas.
Assim, a fim de buscarem um consenso intermediário, os ministros se reuniram em 26 de junho e decidiram, conforme abaixo:
Reconheceram a inconstitucionalidade parcial do artigo 19, de modo que entenderam não conferir o dispositivo legal a proteção suficiente a bens jurídicos;
O provedor será responsável quando não indisponibilizar imediatamente conteúdos que configurem crimes graves como: terrorismo, induzimento, instigação ou auxílio ao suicídio, incitação à discriminação, crimes sexuais e pornografia infantil, e tráfico de pessoas, e contas inautênticas. Passa-se a considerar uma falha sistêmica deixar de adotar medidas de prevenção ou remoção de conteúdos ilícitos. O responsável pelo conteúdo poderá requerer o seu restabelecimento judicialmente;
Nos casos de crimes contra a honra, como: difamação, injúria e calúnia, os provedores só poderão ser responsabilizados de descumprirem ordem judicial para remoção do conteúdo. No entanto, as plataformas poderão remover publicações com base em notificações extrajudiciais;
Ficou estabelecida a presunção da responsabilidade dos provedores em caso de anúncios e impulsionamentos pagos ou redes artificiais de distribuição, como chatbots e robôs. A responsabilização, nestes casos, independerá de notificação, a menos que o provedor comprove sua atuação diligente e em tempo razoável;
O art. 19 se aplica a provedores de serviços de e-mail, aplicações de reuniões fechadas por vídeo ou voz e de serviços de mensageria privada, resguardando o sigilo das comunicações;
Para os marketplaces a responsabilidade civil ocorre de acordo com o Código de Defesa do Consumidor; e
Os provedores devem editar autorregulações que inclua sistema de notificação, devido processo e relatórios anuais de transparência, além de disponibilizar canais específicos de atendimento, acessíveis e amplamente divulgados.
Provedores digitais são guindados a assumirem papel de protagonismo
O tema é complexo e envolve choque entre princípios fundamentais do Direito como a liberdade de expressão, à dignidade humana e cidadania, estes eventualmente afrontados pela evolução tecnológica.
Não há pretensão aqui de se tomar partido deste ou daquele voto exarado pelos ministros do STF e nem do consenso obtido pela inconstitucionalidade parcial. No entanto, é importante registrar que a análise da constitucionalidade do artigo 19 do Marco Civil da Internet pelo STF revela um contexto em que os provedores digitais são guindados a assumirem papel de protagonismo na organização social da informação.
O cenário atual exigia respostas mais ágeis e eficazes, sem comprometer a liberdade de expressão. Como ensina o jurista alemão, Robert Alexy, os direitos fundamentais são princípios em colisão, e cabe ao intérprete ponderar seus pesos conforme o caso concreto.
No entanto, com a decisão do STF definiu-se critérios e categorias novas de responsabilização e remoção de conteúdos, criando uma subjetividade ao regime anteriormente proposto pelo artigo 19 e possibilidade de diversas interpretações pela sociedade, pelo judiciário e pelas próprias plataformas.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Neste sentido, uma das questões que ficam com a definição da inconstitucionalidade parcial do artigo 19 e a solução encontrada é se não se está entregando nas mãos das plataformas digitais o difícil exercício de interpretação desses princípios expostos e colidentes ou até mesmo da complexa mediação de conflitos sociais. Não estaríamos diante de uma aparente transferência de responsabilidades?
Ao passo que a decisão tentou trazer uma proteção à sociedade ao determinar a imediata remoção de conteúdos criminais ou ilícitos, questionamos se isso não gerará uma remoção em massa de conteúdos, passando as plataformas, de neutras, para excessivamente conservadoras?
De acordo com a decisão e de modo oposto ao anteriormente previsto, o usuário poderá até requerer a reativação do seu conteúdo removido, mas mediante ordem judicial, invertendo-se a ordem das coisas.
Diante desse cenário, o desafio entre equilibrar os princípios e direitos constitucionais prevalecem. A decisão do STF representa um aparente avanço no reconhecimento da complexidade das relações digitais, mas também poderá abrir espaço para inseguranças jurídicas e interpretações que poderão levar à supressão indevida de conteúdos e enfraquecer a liberdade de expressão.
Espera-se, obviamente, que tenham acertado os ministros e que com a evolução da jurisprudência e da legislação se possa garantir que o ambiente digital não seja nem um território sem lei, nem um espaço de censura disfarçada, mas sim um ambiente em que a liberdade seja exercida com responsabilidade, em respeito à dignidade de todos.