A advocacia tem legitimidade para pedir acesso às informações sobre os sistemas de inteligência artificial (AI) que foram usados por magistrados na tomada de decisão, segundo Daniela Borges, presidente da seccional da Ordem dos Advogados do Brasil na Bahia (OAB-BA).
“A fundamentação que esconde o peso do algorítimo na decisão é uma fundamentação incompleta” e deve ser questionada, afirmou Borges durante o 1º Encontro Sul-Brasileiro de Prerrogativas, organizado pela OAB-PR e patrocinado pela Itaipu Binacional.
O encontro da OAB-PR foi pautado pelo caso de estupro de vulnerável em Minas Gerais em que o desembargador Magid Nauef Láuar, da 9ª Câmara Criminal do Tribunal de Justiça de Minas Gerais (TJMG), esqueceu um prompt de inteligência artificial na decisão que absolveu o réu. Láuar foi afastado do cargo após denúncias feitas ao Conselho Nacional de Justiça (CNJ) de que ele teria cometido crimes sexuais — o caso está em investigação pela Polícia Federal.
Segundo a presidente da OAB-BA, a resolução 615/2025 do CNJ, que trata sobre o uso de IA no Poder Judiciário, não é apenas uma norma administrativa, mas um argumento à disposição dos advogados.
A resolução do CNJ determinou que o uso da tecnologia não é proibido, mas que a participação e a supervisão humana são obrigatórias em “todas as etapas dos ciclos de desenvolvimento e de utilização das soluções que adotem técnicas de inteligência artificial” e que os resultados propostos pela IA devem sempre ser submetidos à análise e decisão humanas.
“Uma vez que o CNJ traz essa obrigatoriedade, se há um indício de que a decisão não passou por um controle humano efetivo, há um fundamento para se questionar a validade do ato”, disse Daniela Borges.
Harrison Targino, presidente da OAB-PB, refletiu que a incorporação da IA no direito brasileiro é um processo inevitável. “Até porque é uma tecnologia que também traz inegáveis impactos positivos”, afirmou Targino.
O CNJ tem cadastrado, no momento, 147 sistemas de IA em uso pelos Tribunais brasileiros.
Domingos Martins, presidente da Comissão de Prerrogativas da OAB-RS, lembrou de outra implicação do uso da IA: no direito ao duplo grau de jurisdição. No estado, a mesma inteligência artificial, “Gaia”, está sendo usada para a primeiro e segundo instâncias. Segundo Martins, isso traz o risco de que não haja um novo olhar após um recurso apelatório.
“O duplo grau existe para revisão. Esperamos um novo olhar, não meramente uma função carimbadora, seja por um humano e quer seja por inteligência artificial”, afirmou Martins.
Daniela Borges apontou três caminhos que a advocacia precisa seguir para lidar com essa realidade.
O primeiro é o letramento tecnológico como obrigação profissional. “Não precisamos ser programadores, mas precisamos entender o suficiente para fazer as perguntas certas”, disse ela.
O segundo é mostrar as singularidades de cada processo. “O distinguishing começa na atenção, não no recurso”, disse ela. “O advogado precisa demonstrar com precisão cirúrgica por que aquele processo não é igual aos outros.”
“A máquina agrupa o que é igual, se o advogado sabe o que a máquina não vê, ele tem uma vantagem”, disse Borges.
O terceiro, afirmou, é exigir transparência sobre a forma como as ferramentas de IA foram utilizadas na decisão.
Borges propõe que o artigo 489 do Código de Processo Penal seja reformado para incluir um texto estabelecendo que, nas decisões onde houver análise ou resumo de elementos probatórios por IA, o juiz deve identificar expressamente na fundamentação, qual a sua cognição autônoma sobre a prova e em que medida ela confirmou, divergiu ou corrigiu a análise algorítmica da IA.
Para Domingos Martins, isso é essencial para viabilizar que os advogados questionem as decisões.
“Precisamos saber como essa supervisão humana foi feita para que a gente possa impugnar uma decisão que feriu a resolução. Se a gente não detém esse conhecimento, isso não é possível”, afirmou.