Este é o quarto artigo de uma série sobre a tese recentemente publicada pelo Supremo Tribunal Federal (STF) a respeito do artigo 19 do Marco Civil da Internet.
Sistemática original e tese fixada pelo STF
O artigo 19 do Marco Civil limitava a responsabilidade civil dos provedores de aplicações ao descumprimento de ordens judiciais de exclusão de conteúdo. A regra pretendia proteger a liberdade de expressão e evitar que plataformas se transformassem em árbitros privados do que poderia ou não circular na rede. Ainda assim, não era absoluta: o art. 21 criou exceção para casos de divulgação não autorizada de nudez ou atos íntimos, impondo responsabilidade subsidiária aos provedores que não removessem o material após notificados pelo ofendido.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Em junho, o STF declarou a inconstitucionalidade parcial e progressiva do art. 19 e estabeleceu quatro regimes de responsabilidade até edição de nova lei:
Mera notificação: passa a ser a regra geral para ilícitos em geral, inclusive envolvendo contas inautênticas. A exceção do art. 21 deixa de ser pontual.
Ordem judicial: mantém-se a regra do art. 19 para crimes contra a honra e comunicações privadas, como e-mails e grupos fechados, exceto em replicações de fatos já reconhecidos judicialmente, removíveis por simples notificação.
Presunção de responsabilidade: nos casos em que houver uso de robôs ou chatbots para impulsionar conteúdos ilícitos, os provedores respondem automaticamente, salvo prova de atuação diligente e em tempo razoável.
Falha sistêmica: quando o provedor deixar de adotar medidas adequadas de prevenção contra crimes graves. A tese não define, porém, quais seriam os padrões de “atuação responsável e transparente”, gerando incerteza.
A tese foi firmada no julgamento dos Temas 533 e 987, relativos a contas falsas e conteúdos ofensivos em redes sociais. Embora não envolvessem diretamente inteligência artificial, acabaram por gerar discussões sobre o tema e AGU, como amicus curiae, provocou o STF para alertar sobre o uso indevido da IA.
Mencionou estudo do NetLab/UFRJ sobre anúncios fraudulentos contra o Pix, veiculados por impulsionamento digital manipulado por IA. O episódio demonstraria, segundo a AGU, o risco à credibilidade de políticas públicas, à imagem de figuras públicas e à confiança da população em instituições.
Abrangência das ferramentas de inteligência artificial
A IA deixou de ser promessa distante para se tornar realidade em diversos setores da economia brasileira. Está presente nos algoritmos que recomendam filmes, nos sistemas bancários que monitoram transações suspeitas, nas ferramentas de atendimento automatizado e também no campo, ajudando a prever safras e otimizar recursos naturais.
Patentes envolvendo IA se multiplicam no mundo todo. O Brasil acompanha essa tendência não apenas em tecnologia da informação, mas em setores que refletem sua vocação: agricultura, mineração, energia renovável e saúde. Máquinas agrícolas com visão computacional identificam pragas e ajustam a aplicação de defensivos em tempo real. No setor pecuário, sensores monitoram a saúde do rebanho e previnem perdas.
No sistema bancário, a IA personaliza ofertas de crédito, detecta fraudes e analisa padrões de consumo em tempo real, integrando pagamentos instantâneos, carteiras digitais e avaliação de risco. O Brasil, que já possui um dos sistemas financeiros digitais mais avançados do mundo, utiliza a tecnologia para ampliar segurança e acessibilidade.
Na saúde, dispositivos vestíveis com sensores inteligentes acompanham sinais vitais e podem alertar para riscos de insolação, um recurso especialmente relevante em países tropicais como o Brasil, onde trabalhadores rurais e da construção civil ainda se expõem intensamente ao sol.
Na indústria, modelos preditivos monitoram altos-fornos e identificam falhas antes que causem prejuízos. No setor automotivo, câmeras associadas a redes neurais detectam pedestres e veículos, aumentando a segurança viária. Já nas telecomunicações, algoritmos identificam chamadas fraudulentas e aprendem continuamente com o retorno dos usuários.
Esses exemplos demonstram que a IA não é apenas sobre máquinas que aprendem, mas sobre como a sociedade escolhe aplicar e proteger o conhecimento produzido. Para o Brasil, há uma oportunidade estratégica: transformar sua criatividade em soluções escaláveis e juridicamente protegidas, capazes de competir no cenário global. A proteção por patentes não apenas assegura inovação local, mas também atrai investimentos e fomenta ecossistemas de pesquisa.
O regime de “presunção de responsabilidade”
Entre as inovações mais debatidas da tese do STF está a presunção de responsabilidade nos casos de uso de redes artificiais de distribuição de conteúdo (chatbot ou robô). A lógica é inverter o ônus: em vez de depender de notificação, a plataforma será responsabilizada, a menos que prove diligência em tempo razoável para remover o conteúdo.
Esse regime tem aspectos tanto positivos quanto preocupantes. Entre os pontos positivos, reforça-se a proteção de direitos, especialmente porque práticas ilícitas como pirataria, difamação ou fraude costumam se espalhar em larga escala por meio de redes artificiais de distribuição. O modelo pressiona as plataformas a desenvolverem mecanismos preventivos, capazes de responder rapidamente e mitigar danos antes que se tornem irreversíveis.
Entre as preocupações, a expressão “tempo razoável” é vaga, deixando provedores e vítimas sem clareza sobre qual padrão será exigido. A menção ampla a “chatbots” e “robôs” tampouco especifica quais tecnologias estão incluídas, podendo abranger desde simples scripts até sistemas complexos de IA.
Outro risco é o incentivo a remoções preventivas e automáticas. Diante da ameaça de responsabilização, plataformas podem preferir bloquear conteúdos de forma massiva, sem análise criteriosa. Isso transfere a empresas privadas uma função quase jurisdicional: decidir unilateralmente se determinado conteúdo é ilícito. Em disputas complexas, que demandariam análise jurídica e técnica, tal postura pode resultar em censura indevida.
Há ainda impactos sobre inovação. Enquanto grandes plataformas têm recursos para investir em sistemas sofisticados de monitoramento, startups e provedores menores podem não dispor da mesma capacidade, ficando expostos a riscos desproporcionais. O cenário pode reforçar a concentração de poder econômico e tecnológico, sufocando a diversidade de novos entrantes no mercado digital.
Considerações finais
O Marco Civil da Internet foi concebido para garantir simplicidade, objetividade e segurança jurídica. Sua lógica era clara: proteger a liberdade de expressão e atribuir responsabilidades apenas mediante ordem judicial, salvo exceções específicas.
O STF, ao reinterpretar o art. 19, buscou responder a novos fenômenos, como a desinformação em massa e o uso abusivo de inteligência artificial para manipulação digital. A mudança reforça a necessidade de agilidade na remoção de ilícitos, mas traz efeitos colaterais que precisam ser discutidos com cautela.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Se, de um lado, a presunção de responsabilidade fortalece a proteção contra conteúdos ilegais, de outro amplia a insegurança jurídica ao impor critérios vagos e subjetivos. Há risco de censura, de concentração de poder em grandes plataformas e de prejuízo à inovação.
O desafio central será encontrar equilíbrio entre proteger direitos e preservar a liberdade de expressão. Até que o Congresso elabore legislação atualizada, caberá ao Judiciário interpretar a aplicação da tese.
Mais do que nunca, o debate exige cautela: trata-se de regular não apenas conteúdos digitais, mas também os limites do poder de plataformas privadas em um ecossistema tecnológico que se transforma diariamente.