“Se quiser, posso ajustar o grau de detalhamento, enxugar a fundamentação ou adequar exatamente ao padrão decisório da magistrada que assina o feito” foi a frase, ipsis litteris, publicada no Diário da Justiça na última semana. A publicação oficial de trecho próprio da interação com um sistema de inteligência artificial generativa[1] tornou indelével a falha humana na revisão da minuta, revelando, igualmente, a deficiência de governança do fluxo de trabalho.
O Poder Judiciário atravessou o Rubicão[2] da inteligência artificial generativa estabelecendo critérios rígidos de controle e conformidade. A Resolução CNJ 615 de 11/03/2025[3] baseia-se em estudos extensivos e bem fundamentados acerca dos riscos, limites e desafios de governança algorítmica e estabelece como condicionantes para a sua utilização nos tribunais a observância de padrões de auditoria, monitoramento e transparência (art. 1º, § 1º, Res. CNJ 615/2025).
A publicação no Diário da Justiça acima transcrita revelou uma falha grave no processo de adaptação e conformidade com as regras de governança ética (art. 19, Res. CNJ nº 615/2025), risco previamente apontado pelo Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário[4] e que compromete a confiança no Poder Judiciário.[5]
O uso ético de sistemas de inteligência artificial pressupõe a transparência e a revisão humana obrigatória, e, quando houver contratação de solução de mercado, o seu registro é necessário (art. 19, § 6º, Res. CNJ nº 615/2025).[6] Por sua vez, a utilização não revelada de sistemas de inteligência artificial generativa é fenômeno conhecido na literatura especializada como shadow AI.[7]
O uso oculto, à sombra dos controles oficiais, cria um espaço de insegurança e descontrole sobre possíveis vieses discriminatórios ou distorções cognitivas que os modelos podem reproduzir.[8] A atual preocupação com shadow AI é continuidade do debate antecedente sobre o fenômeno de shadow information technology (shadow IT)[9], relacionado ao uso de tecnologias ou sistemas à revelia do departamento de informática para burlar restrições ou otimizar tarefas. O período pandêmico foi especialmente desafiador nesse campo.
A invisibilidade do uso de IAG no âmbito da administração da Justiça é o verdadeiro risco, não apenas a tecnologia em si. A transparência quanto à origem, ao volume e aos critérios de seleção dos dados utilizados para treinamento representa não apenas um requisito técnico, mas uma garantia institucional de justiça, fundamental para viabilizar auditoria, contestação e correção de resultados potencialmente discriminatórios.
O uso não revelado, além de aumentar a exposição a potenciais vazamentos de dados sigilosos, impossibilita a aferição de conformidade com as diretrizes de governança de dados, transparência e proteção à propriedade intelectual.
O fenômeno adquire maior complexidade ao observar que sistemas de inteligência artificial, em especial modelos generativos de linguagem, assimilam gradualmente o estilo, o vocabulário e as preferências discursivas dos usuários. A interação recorrente de magistrados, servidores ou advogados com o sistema fornece insumos linguísticos ao modelo, resultando na reprodução e consolidação de padrões individuais de escrita e argumentação jurídica.
Esse processo de retroalimentação (conhecido como ajuste fino ou fine-tuning comportamental) cria uma aparência de personalização e eficiência, mas pode mascarar uma forma sutil de indução cognitiva.[10] Não é coincidência que a sugestão para o usuário do chat acima foi de “adequar exatamente ao padrão decisório da magistrada que assina o feito”. As auditorias previstas pelo CNJ visam mitigar esses riscos, mas ao utilizar um sistema não-homologado ou não registrado, o servidor impossibilita a correção dos desvirtuamentos.
O enfrentamento da shadow AI requer a transição de uma abordagem exclusivamente proibitiva para um modelo de governança adaptativa que privilegie transparência, educação e inovação autorizada. Os desafios relacionados ao custo de conformidade, como lentidão e burocracia, podem ser percebidos como obstáculos à produtividade, motivando colaboradores a buscar alternativas tecnológicas[11], razão pela qual se recomenda substituir políticas estritamente proibitivas por estratégias de governança que integrem opções seguras de inovação ao fluxo de trabalho.[12]
A literacia algorítmica é um pressuposto para o uso ético dos sistemas de inteligência artificial: sem ela, os deveres de transparência, não discriminação e revisão humana não se concretizam de forma efetiva. Ao atravessar o Rubicão da inteligência artificial generativa, o Poder Judiciário sabia da irreversibilidade dessa medida, mas não relegou suas consequências à sorte.
Ao contrário, firmou um compromisso institucional com critérios robustos de transparência, auditabilidade e controle qualificado que devem ser observados por todas as pessoas envolvidas na administração da Justiça.
CONSELHO NACIONAL DE JUSTIÇA. O uso da inteligência artificial generativa no Poder Judiciário brasileiro: relatório de pesquisa. Brasília, DF: Conselho Nacional de Justiça, 2024.
CONSELHO NACIONAL DE JUSTIÇA. Resolução CNJ n. 615/2025. Disponível em: <https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf>. Acesso em: 12 nov. 2025.
ECO, Umberto. Interpretação e superinterpretação. Trad. Monica Stabel. 2. ed. São Paulo: Martins Fontes, 2005.
ICJBrasil – Índice de Confiança na Justiça no Brasil | FGV DIREITO SP, disponível em: <https://direitosp.fgv.br/projetos-de-pesquisa/icjbrasil-indice-confianca-na-justica-no-brasil>. acesso em: 2 maio 2026.
MEHRABI, Ninareh; MORSTATTER, Fred; SAXENA, Nripsuta; et al. A Survey on Bias and Fairness in Machine Learning. 2022. Disponível em: <http://arxiv.org/abs/1908.09635>. Acesso em: 17 set. 2025.
ROSS, Joseph A. J.; HIBBERT, Lee; MOSS, Emma J. Shadow AI: Governance, Risk, and Organisational Resilience. In: 2025 International Conference on Artificial Intelligence, Computer, Data Sciences and Applications (ACDSA). [s.l.: s.n.], 2025, p. 1–9. Disponível em: <https://ieeexplore.ieee.org/document/11166415/>. Acesso em: 30 abr. 2026.
SILLIC, Mario. Critical impact of organizational and individual inertia in explaining non-compliant security behavior in the Shadow IT context. Computers & Security, v. 80, p. 108–119, 2019.
TRIALIH, R. The Challenge in Neutralizing Shadow IT: A Literature Review. In: 2023 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM). [s.l.: s.n.], 2023, p. 1169–1173. Disponível em: <https://ieeexplore.ieee.org/document/10406586/>. Acesso em: 2 maio 2026.
WANG, Luping; CHEN, Sheng; JIANG, Linnan; et al. Parameter-Efficient Fine-Tuning in Large Models: A Survey of Methodologies. 2025. Disponível em: <http://arxiv.org/abs/2410.19878>. Acesso em: 13 nov. 2025.
ICJBrasil – Índice de Confiança na Justiça no Brasil | FGV DIREITO SP. Disponível em: <https://direitosp.fgv.br/projetos-de-pesquisa/icjbrasil-indice-confianca-na-justica-no-brasil>. Acesso em: 2 maio 2026.
[1] Expressões como “se quiser, posso ajustar”, “enxugar a fundamentação” ou “adequar ao padrão decisório da magistrada” são marcas inconfundíveis de resposta gerada por IA, estruturada como oferta de serviço ao usuário. Sua permanência no documento final indica que a pessoa responsável pela minuta não releu o texto com atenção suficiente para distinguir o conteúdo da decisão do conteúdo auxiliar gerado pela ferramenta.
[2] Umberto Eco interpreta a travessia do Rubicão por Julio Cesar como um ato consciente não apenas do seu significado, mas também da sua irreversibilidade: Alea jacta est. ECO, Umberto, Interpretação e superinterpretação, 2. ed. São Paulo: Martins Fontes, 2005, p. 33.
[3] A Resolução CNJ n. 615/2025 foi antecedida pela Portaria nº 271/2020 e pela Resolução CNJ nº 332/2020. A evolução destes marcos regulatórios é manifesta: a normativa que abordou, inicialmente, soluções computacionais para a gestão e triagem de processos foi amplamente reformulada com o surgimento da inteligência artificial generativa. O relatório do Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário, instituído pela Portaria CNJ nº 338/2023, constituiu referência direta para a atual normativa e sinalizou o risco de uso não transparente pelos usuários, em razão da facilidade de acesso. CONSELHO NACIONAL DE JUSTIÇA, O uso da inteligência artificial generativa no Poder Judiciário brasileiro: relatório de pesquisa, Brasília, DF: Conselho Nacional de Justiça, 2024.
[4] Ibid., p. 20; 33–34.
[5] O ICJBrasil, que era o instrumento mais metodologicamente robusto e longitudinalmente consistente para aferir a confiança da população no Judiciário brasileiro, foi encerrado em 2021. A confiança no Judiciário atingiu 40% em 2021, ele havia sido de 29% em 2013, de 32% em 2015 e de 24% em 2017. O maior patamar registrado foi de 47%, em 2011. Veja mais em: ICJBrasil – Índice de Confiança na Justiça no Brasil | FGV DIREITO SP, disponível em: <https://direitosp.fgv.br/projetos-de-pesquisa/icjbrasil-indice-confianca-na-justica-no-brasil>. acesso em: 2 maio 2026.
[6] “Art. 19. Os modelos de linguagem de larga escala (LLMs), de pequena escala (SLMS) e outros sistemas de inteligência artificial generativa (IAGen) disponíveis na rede mundial de computadores poderão ser utilizados pelos magistrados e pelos servidores do Poder Judiciário em suas respectivas atividades como ferramentas de auxílio à gestão ou de apoio à decisão, em obediência aos padrões de segurança da informação e às normas desta Resolução. […] § 6º Quando houver emprego de IA generativa para auxílio à redação de ato judicial, tal situação poderá ser mencionada no corpo da decisão, a critério do magistrado, sendo, porém, devido o registro automático no sistema interno do tribunal, para fins de produção de estatísticas, monitoramento e eventual auditoria.§ 7º Na hipótese do § 2º deste artigo, o magistrado que contratar solução de mercado de inteligência artificial para uso em suas atividades no Poder Judiciário, ou o gestor que tiver em sua equipe servidor ou colaborador que utilize essas soluções, deverá prestar informações ao seu respectivo tribunal sobre sua utilização, na forma do regulamento.§ 8º Os tribunais consolidarão as informações recebidas na forma do § 7ºdeste artigo para envio ao Comitê Nacional de Inteligência Artificial do Judiciário, que as utilizará para os fins previstos no art. 25 desta Resolução” CONSELHO NACIONAL DE JUSTIÇA, Resolução CNJ n. 615/2025.
[7] ROSS, Joseph A. J.; HIBBERT, Lee; MOSS, Emma J., Shadow AI: Governance, Risk, and Organisational Resilience, in: 2025 International Conference on Artificial Intelligence, Computer, Data Sciences and Applications (ACDSA), [s.l.: s.n.], 2025, p. 1–9.
[8] WANG, Luping et al, Parameter-Efficient Fine-Tuning in Large Models: A Survey of Methodologies, 2025.
[9] TRIALIH, R., The Challenge in Neutralizing Shadow IT: A Literature Review, in: 2023 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM), [s.l.: s.n.], 2023, p. 1169–1173.
[10] MEHRABI, Ninareh et al, A Survey on Bias and Fairness in Machine Learning, 2022, p. 15.
[11] SILLIC, Mario, Critical impact of organizational and individual inertia in explaining non-compliant security behavior in the Shadow IT context, Computers & Security, v. 80, p. 108–119, 2019.
[12] ROSS; HIBBERT; MOSS, Shadow AI.