A institucionalização da inteligência artificial no Carf

A inteligência artificial entrou oficialmente no contencioso administrativo tributário federal. A Portaria Carf/MF 854/2026 formaliza a IARA como ferramenta de inteligência artificial de apoio aos julgadores, com capacidade de buscar jurisprudência e sugerir textos de fundamentação para as decisões em processos administrativos.

Em paralelo, a Portaria Carf/MF nº 142/2026 estabelece as diretrizes para o uso de inteligência artificial de forma abrangente no Carf, reforçando a supervisão humana, a proteção de dados e parâmetros de uso responsável. 

Este movimento demonstra uma visão de que não se trata apenas de usar tecnologia, mas de institucionalizá-la dentro de um ambiente decisório de alta relevância nacional.

Conheça o JOTA PRO Tributos, plataforma de monitoramento tributário para empresas e escritórios com decisões e movimentações do Carf, STJ e STF

A leitura conjunta das portarias revela um desenho alinhado ao discurso contemporâneo de governança, com ênfase na supervisão humana.

A exigência de supervisão humana, aliás, é reiterada, de modo que fica expresso que a decisão permanece formalmente atribuída ao julgador.  Há a previsão de auditoria dos usos e rastreabilidade das interações, e o uso da IA é vinculado a parâmetros de responsabilidade e não discriminação. Esses elementos alinham o Carf a um patamar mínimo de legitimidade no uso de sistemas automatizados e dialogam com padrões de governança internacionais. 

Ainda assim, a incorporação desses elementos não resolve, por si só, as questões mais sensíveis que emergem quando a IARA passa a atuar dentro do processo decisório do Carf.

Um primeiro ponto a ser destacado se refere  ao modo como a ferramenta foi desenhada. A princípio e apenas pela leitura das portarias (pois não há acesso público da ferramenta), a IARA não apenas busca precedente. Ela também pode retornar a busca com um texto sugestivo de voto para utilização pelo julgador.

O art. 3º, inciso II, da Portaria Carf/MF 854/2026 estabelece que, a partir do input do usuário, a IARA realiza a busca na base de dados e utiliza esse resultado como fonte para a geração de um texto sugestivo de voto. Ao oferecer uma estrutura de fundamentação, a ferramenta passa a participar da organização do raciocínio jurídico, interferindo diretamente no modo como os elementos do caso são articulados, nos precedentes que ganham destaque e na forma como a decisão se constrói.

É nesse contexto que a base de dados da IARA assume papel central, ainda pouco explorado nas portarias.

Está previsto que na sua versão inicial, a IARA será alimentada por acórdãos do próprio Carf a partir de 2012. Não há, contudo, indicação de como essa base de dados será tratada, nem quais critérios orientarão sua organização sistêmica para a sugestão ao julgador no momento da elaboração do voto. A curadoria da base, central em uma ferramenta desta importância, não aparece de forma transparente como elemento estruturado, embora seja decisiva para seu funcionamento.

Isso importa porque uma base de dados não é neutra. Um conjunto de acórdãos reúne decisões reiteradas e isoladas, entendimentos consolidados e superados ao longo do tempo, julgamentos unânimes e decisões formadas por voto de qualidade, além de precedentes com diferentes níveis de estabilidade.

Sem critérios explícitos de classificação e hierarquização dessa base de dados, esse conjunto heterogêneo tende a ser operado como se fosse homogêneo. E, quando essa base alimenta um sistema de IA que produz respostas estruturadas, o efeito prático pode ser a apresentação de decisões distintas como se tivessem o mesmo peso jurídico.

A curadoria da base é uma etapa técnica que define o que aparece como juridicamente relevante. Não se trata apenas de organizar dados, mas de estruturar o repertório que será apresentado ao julgador. A ausência de critérios explícitos sobre essa curadoria abre espaço para que a própria lógica do sistema passe a operar como filtro, sem transparência sobre como esse filtro funciona. Se esse filtro da base está na ferramenta, faltou explicitá-la na portaria, como forma de transparência.

Adicionalmente, destaca-se o fato de que a equipe de curadoria da base de dados e supervisão da IARA será restrita ao próprio Carf. De fato, a Portaria 142/2026 estruturou essa governança de forma estritamente interna, atribuindo a manifestação preliminar, o controle e a avaliação do uso de ferramentas de IA corporativa exclusivamente ao Comitê Interno de Governança do Carf. 

Contudo, a ampliação desse arranjo, com participação institucional mais diversa, como representantes da OAB e da PGFN, poderia contribuir para fortalecer a legitimidade do processo de revisão da base de dados e dos resultados da IARA. 

A portaria também prevê a implementação inicial da IARA por meio de um grupo piloto, com acesso restrito por trinta dias a conselheiros e a uma equipe de curadoria. A etapa de testes é fundamental para que o piloto não se limite à verificação do funcionamento técnico. Testar a IARA exige observar o comportamento da base na prática, os precedentes priorizados e a consistência jurídica das sugestões. Sem esse tipo de avaliação, o piloto valida o sistema, mas não necessariamente valida os seus efeitos.

Todos esses pontos se conectam a uma questão mais ampla, implícita nas portarias: a incorporação da IA é justificada, em grande medida, pela promessa de eficiência. Redução de estoque, ganho de produtividade, aceleração do julgamento. Esses objetivos são legítimos e, em alguma medida, necessários diante do alto volume de processos do Carf. Mas o ponto de atenção deve ser redobrado para que a eficiência se materialize sem levar à substituição gradual da análise do julgador pela validação de textos previamente sugeridos pela ferramenta. 

Temos insistido, em diferentes espaços de debate, na importância do chamado design socrático de ferramentas de IA, ainda pouco explorado, mas particularmente relevante em contextos como no Direito, em que a tecnologia pode atuar como apoio à formação do convencimento. Trata-se de um desenho de ferramenta que não entrega respostas prontas, mas orienta o raciocínio, evidencia inconsistências e estimula a revisão crítica. Em vez de conclusões, organiza perguntas e múltiplas visões.

Esse caminho, apesar de mais complexo, favorece um uso mais reflexivo da tecnologia, preservando o espaço de construção do julgamento, que é central na atuação do conselheiro no Carf. A opção adotada foi distinta. Ao estruturar a IARA para gerar textos sugestivos de voto, escolheu-se um modelo que entrega uma base argumentativa já organizada. Isso não elimina a autonomia do julgador, mas redefine o ambiente em que ela se exerce, sobretudo em cenários marcados por pressão por produtividade e volume decisório.

Isso se torna mais relevante quando se observa que a ferramenta IARA pode apresentar múltiplas sugestões que não necessariamente convergem entre si. Imaginemos a seguinte situação: um recurso administrativo estruturado em cinco argumentos centrais. Ao chegar no momento do julgamento, o relator solicita o apoio de IARA que devolve pelo menos cinco sugestões de fundamentação.

É plenamente possível que as sugestões 1, 3 e 5 sigam uma linha interpretativa, enquanto as sugestões 2 e 4 apontem em direção diversa, ou até incompatível. Consideradas isoladamente, cada uma pode parecer adequada. Mas, quando reunidas, podem não sustentar uma construção coerente. Nesse cenário, o papel do relator deixa de ser apenas o de selecionar trechos e passa a exigir uma recomposição ativa do raciocínio jurídico.

É nesse ponto que um desenho orientado por uma lógica mais socrática ganha relevância: não um sistema que entrega blocos prontos de texto, mas que conduz o julgador a uma formulação progressiva e harmônica da decisão, apoiando a construção do convencimento em vez de fragmentá-la em sugestões pontuais.

Há ainda um aspecto que permanece pouco desenvolvido: a dimensão externa da governança. As portarias estruturam mecanismos de auditoria interna e governança institucional, mas não avançam na criação de instrumentos que permitam ao contribuinte compreender ou questionar o funcionamento da ferramenta (devido processo tecnológico). A discussão sobre devido processo permanece ancorada em categorias tradicionais, enquanto a mediação tecnológica introduz uma camada adicional que não está plenamente contemplada.

Nesse sentido, a política que institucionaliza o uso da IA no âmbito da Receita Federal (Portaria 647/2026, outra norma importantíssima e recente) apresenta um avanço importante que poderia ser replicada às portarias do Carf, ao estruturar de forma mais detalhada o ciclo de governança da tecnologia.

A norma estabelece, por exemplo, a necessidade de avaliação de riscos ao longo de todo o ciclo de vida da IA, bem como a obrigatoriedade de monitoramento contínuo, registro das aplicações e revisão periódica dos sistemas. Também explicita a preocupação com viés, alucinação e explicabilidade, trazendo esses elementos para o centro da governança.

Além disso, outros pontos que poderiam ser replicados da portaria sobre a IA da RFB são o avanço ao tratar da capacitação dos agentes públicos envolvidos, ao reconhecer que o uso da IA exige preparo técnico e compreensão crítica sobre seus limites e riscos. A norma da RFB também reforça a responsabilização pelo uso da tecnologia, deixando claro que o emprego inadequado, negligente ou em desconformidade com as diretrizes estabelecidas pode ensejar apuração de responsabilidade, algo que a Portaria do Carf não estabelece.

Receba de graça todas as sextas-feiras um resumo da semana tributária no seu email

A institucionalização da inteligência artificial no Carf é uma etapa fundamental e necessária, não apenas reconhecendo o uso da tecnologia, mas para criar as condições para que esse uso se desenvolva de forma estruturada e acompanhada. Ao mesmo tempo, a consolidação dessa agenda passa pela construção de legitimidade, que depende da confiança nas balizas que orientam o uso da ferramenta, na forma como os resultados são testados, nas auditorias realizadas e na capacidade de identificar e corrigir erros e vieses ao longo do tempo.

A IARA não decide, mas passa a influenciar o que aparece como relevante, o que é trazido à análise e a forma como os argumentos se organizam. Nesse contexto, aspectos como a curadoria da base de dados e os critérios de teste, qualificação e revisão ganham relevância progressiva e tendem a se tornar centrais à medida que a tecnologia amadurece. É nesse movimento que se abre a possibilidade de aplicar uma tecnologia poderosa de forma alinhada a um uso responsável, sustentado por transparência, acompanhamento e aperfeiçoamento contínuo.

*

Este artigo foi produzido no contexto das pesquisas realizadas pelo Núcleo de Direito Tributário da FGV Direito SP

Generated by Feedzy