O que as procuradorias brasileiras já regulamentaram sem esperar o Congresso

O Brasil não possui, até esta data, um marco regulatório federal para a inteligência artificial. O PL 2338/2023, aprovado pelo Senado em dezembro de 2024, aguarda votação na Câmara dos Deputados. Em dezembro de 2025, o governo enviou PL substitutivo criando o Sistema Nacional de Governança para IA, consolidando competências da ANPD e de reguladores setoriais.

O vácuo é real. Mas ele não imobilizou a administração pública, ao contrário: provocou um movimento dos entes federativos que merece atenção e que, paradoxalmente, pode oferecer ao legislador federal a matéria-prima de que ele ainda não dispõe.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

A pesquisa que embasa este artigo identificou, em fontes oficiais, mais de dez atos normativos editados por procuradorias estaduais e municipais brasileiras entre abril de 2024 e fevereiro de 2026, regulamentando o uso de inteligência artificial em suas estruturas. Isso demonstra que procuradorias de diferentes portes, regiões e naturezas, estaduais e municipais, capitais e municípios de médio porte, que não esperaram o Congresso para agir.

O movimento é relevante não apenas pelo volume, mas pela convergência do que esses instrumentos indicam. Órgãos de advocacia pública de norte a sul do país,  de Manaus a Porto Alegre, do Rio de Janeiro a São Luís, chegaram, de forma independente, a soluções normativas que guardam entre si uma notável coerência principiológica. Isso não é coincidência. É sintoma de maturidade institucional.

O que esses atos têm em comum

Apesar das diferenças de nomenclatura, extensão e detalhamento técnico, os atos normativos identificados compartilham um núcleo principiológico coerente. Em todos eles emergem, com variações textuais, os mesmos pilares:

Supervisão humana obrigatória — todo conteúdo gerado por IA deve ser validado pelo procurador responsável, que responde por sua exatidão.
Transparência e explicabilidade — os critérios de funcionamento da IA devem ser auditáveis, compreensíveis e rastreáveis.
Proteção de dados e conformidade com a LGPD — como condição de uso, não como complemento.
Vedação à delegação irrestrita — atividades típicas da advocacia pública não podem ser automatizadas sem validação crítica.
Responsabilização institucional — a autoria jurídica e a responsabilidade pelos atos permanecem integralmente com o profissional humano.
Não discriminação e auditabilidade dos sistemas adotados.
Letramento digital e capacitação contínua como eixo estratégico de implementação.

Esse conjunto de princípios não é arbitrário. Ele reflete, com fidelidade expressiva, o que propõem o NIST AI Risk Management Framework, as recomendações da OCDE para IA no setor público e o EU AI Act europeu. O que chama a atenção é que as procuradorias brasileiras chegaram a esse ponto de forma descentralizada, sem coordenação formal entre si e antes do legislador federal.

Não por acaso: esses princípios também informam, no plano nacional, os documentos produzidos colaborativamente pela Renagei, pelo Colégio Nacional de Procuradores-Gerais dos Estados e do Distrito Federal (Conpeg) e pela Associação Nacional das Procuradoras e dos Procuradores Municipais (ANPM).

O Guia de Boas Práticas e as Orientações para Regulação da IA na Advocacia Pública, publicados em 2024, estabeleceram que o uso ético da inteligência artificial na advocacia pública deve operar sob supervisão humana qualificada, ser transparente e auditável, e jamais comprometer o sigilo profissional ou a independência técnica dos advogados públicos.

A convergência entre esses documentos e os atos normativos locais revela algo importante: a advocacia pública brasileira desenvolveu, de forma orgânica e distribuída, uma cultura de governança de IA antes mesmo de ter uma lei que a obrigasse a isso. Esse é um dado que o debate federal sobre o PL 2338 deveria levar a sério.

O que os pioneiros ensinam

Quatro lições emergem da análise desse corpus normativo.

Primeira: a regulamentação não precisa esperar a perfeição tecnológica. Os atos mais eficazes são os que estabelecem princípios e fluxos de responsabilidade, sem tentar disciplinar cada ferramenta específica, o que seria inviável diante da velocidade de evolução dos sistemas. A Resolução CNJ 615/2025, que disciplina o uso de IA no Poder Judiciário, segue exatamente essa lógica: princípios claros, supervisão humana obrigatória, vedação a decisões autônomas em atividades sensíveis.

Segunda: o instrumento normativo mais adequado varia com o porte e a estrutura da procuradoria. Portarias internas são suficientes para o ponto de partida. Resoluções e instruções normativas conferem maior estabilidade. Leis orgânicas ou complementares são o horizonte para instituições que pretendem estruturar o tema de forma duradoura. O importante é começar, com rigor, mas sem aguardar o instrumento perfeito.

Terceira: a governança de IA nas procuradorias é, antes de tudo, uma questão de responsabilidade profissional e de identidade institucional. A atuação do procurador não pode ser terceirizada aos sistemas, mesmo quando se trata de tarefas operacionais. A supervisão humana qualificada e documentada não é burocracia: é cláusula de não delegação da função pública.

Quarta: a conformidade não é um evento, é um ciclo. Os modelos mais sólidos combinam avaliação prévia das ferramentas adotadas, uso supervisionado com registro e rastreabilidade, monitoramento de incidentes e revisão periódica de protocolos. Esse ciclo, inspirado na ISO/IEC 42001:2023 e no NIST AI RMF, é o que transforma princípios abstratos em controles concretos e verificáveis no cotidiano da procuradoria.

Uma agenda em aberto

A advocacia pública municipal e estadual brasileira construiu, nos últimos dois anos, algo que raramente acontece no direito: uma orientação normativa antes da lei. Os atos editados pelas procuradorias pioneiras, somados às diretrizes da Renagei, do Conpeg e da ANPM e à Resolução CNJ 615/2025, formam um conjunto regulatório denso e coerente, que o legislador federal deveria, ao votar o PL 2338, incorporar como fonte material.

Quer acompanhar os principais fatos ligados ao serviço público? Inscreva-se na newsletter Por Dentro da Máquina. É grátis!

A agenda que se abre tem contornos concretos. É necessário reconhecer formalmente, no texto do marco federal, o papel das unidades internas de governança de IA em órgãos públicos, não como estrutura paralela e descartável, mas como peça relevante do sistema nacional de conformidade. Redes como a Renagei e entidades representativas como a ANPM têm papel central nesse processo: sistematizar o que foi feito, identificar o que falta e propor padrões mínimos que possam ser adotados por procuradorias de todos os portes, sem que cada município precise partir do zero.

A inteligência artificial já trabalha nas procuradorias brasileiras. A questão não é mais se ela vai chegar mas se ela chegará acompanhada de governança suficiente para que o interesse público seja, de fato, o que orienta seu uso.

Os atos normativos foram verificados em fontes primárias (diários oficiais e portais institucionais) entre janeiro e fevereiro de 2026. Documentos da Renagei: renagei.com.br. Resolução CNJ nº 615/2025: atos.cnj.jus.br. PL 2.338/2023 e PL do Executivo: gov.br/gestao. NIST AI RMF 1.0 (2023); OCDE — Recomendação sobre IA (OECD/LEGAL/0449, 2019/2024); EU AI Act — Regulamento (UE) 2024/1689; ISO/IEC 42001:2023.

Generated by Feedzy