A ministra virtual da Albânia

Recentemente a Albânia nomeou ministra virtual para gestão de contratos públicos, o que envolve a organização e a supervisão de licitações e o gerenciamento de contratos com empresas privadas[1]. O que parecia cenário de ficção científica tornou-se realidade com Diella – o nome do sistema de inteligência artificial, que significa sol em albanês – que se propõe a acabar com a corrupção.

O contexto de um país onde a confiança nas instituições é frágil e que ainda tem pretensões de entrar na União Europeia auxilia a entender não apenas a decisão de nomear um sistema de inteligência artificial para um cargo governamental de tamanha importância, como o otimismo de tal escolha. Segundo o primeiro-ministro da Albânia, Diella não apenas eliminará a corrupção, como tornará os processos de contratação mais rápidos, mais eficientes e totalmente suscetíveis de accountability[2].

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Entretanto, há muitas razões para desconfiar desse tipo de medida, ainda que se reconheça o propósito legítimo da luta contra a corrupção e dos esforços para se evitar o desperdício de recursos públicos e as distorções sobre mercados que costumam ocorrer nos contratos públicos. Aliás, como a corrupção é a causa e a consequência de muitas disfuncionalidades dos mercados, uma decisão como a do governo albanês não diz respeito apenas a uma questão de administração pública, mas também de regulação e governança de mercados[3].

É importante ressaltar que a nomeação de Diella corresponde ao ápice do movimento crescente de delegação de importantes competências públicas e privadas para sistemas de inteligência artificial. Estes, por sua vez, não são propriamente ferramentas, mas sim agentes, na medida em que possuem capacidade decisória.

Logo, quando utilizados para diagnósticos e com a supervisão humana em todas as fases do processo, podem ser bons instrumentos para auxiliar em diversas atividades governamentais, aí incluída a prevenção da corrupção. Um bom exemplo brasileiro nesse sentido é o projeto Cérebro, que vem sendo utilizado pelo Cade para identificar carteis em licitações[4].

Entretanto, a transferência total das competências e processos decisórios do governo para um sistema de inteligência artificial, sem a participação e/ou supervisão humanas acaba levando a um cenário de total automação, com diversos riscos institucionais, jurídicos e tecnológicos.

O primeiro deles diz respeito aos eventuais conflitos de interesses, tema sobre o qual eu já tive a oportunidade de me pronunciar, ao tratar dos riscos da utilização da inteligência artificial no Judiciário[5]. Ao que se sabe, Diella foi desenvolvida por uma agência estatal albanesa – a Agência Nacional para a Sociedade da Informação da Albânia (AKSHI) –, mas não fica claro se houve a utilização de tecnologias de empresas privadas e que controles e salvaguardas foram utilizados para evitar esse tipo de problema.

Mesmo que superado o problema do conflito de interesses, subsistem os inúmeros riscos decorrentes da utilização de inteligência artificial para julgamentos complexos, dentre os quais (i) problemas de segurança – como ataques e manipulações por parte de hackers; (ii) erros, alucinações e inúmeras outras disfuncionalidades; (iii) equívocos e vieses, intencionais ou não, dos seus programadores e (iv) as inúmeras distorções e discriminações indevidas[6].

Acresce que subsiste o problema estrutural das decisões de inteligência artificial, que é particularmente preocupante quando utilizada pelo Poder Público: a falta de transparência e a falta de explicabilidade, problemas que eu já explorei em inúmeras colunas anteriores[7].

Por outro lado, como também já pude esclarecer em coluna anterior, as decisões algorítmicas não são necessariamente melhores do que as humanas[8]. Sob diversas perspectivas – notadamente capacidade de framing e de considerar causalidades, contrafactuais e constrições – as decisões humanas (ainda) são melhores do que as decisões das máquinas.

Assim, deveríamos buscar uma complementariedade entre os dois tipos de julgamentos – o algorítmico e o humano – ao invés de simplesmente transferir nossas decisões para as máquinas.

Acresce que a delegação de processos decisórios complexos do Poder Público para máquinas ainda precisa enfrentar o problema de saber se isso é juridicamente possível e, em caso afirmativo, de identificar quem será responsável (e como) por decisões equivocadas ou que causem danos a terceiros.

Dessa maneira, não são poucos nem triviais os riscos e os desafios da opção política do governo albanês. Não é sem razão que, em seu primeiro discurso diante do Parlamento, Diella logo tratou de afastar as críticas de que sua nomeação seria inconstitucional, sob o fundamento de que o verdadeiro perigo para as constituições nunca foram as máquinas, mas sim as decisões desumanas daqueles que estão no poder[9].

Todavia, tal afirmação não é verdadeira. Sob vários aspectos, poderão ser as máquinas as maiores ameaças aos seres humanos, diante da sua crescente autonomia decisória, bem como da escala e da intensidade da sua atuação.

Aliás, a própria Diella foi capaz de identificar várias das suas próprias fragilidades[10]. Ao afirmar que foi criada por uma equipe de programadores albaneses que, ao invés de papel e caneta, usaram Java, Python e café expresso, reconheceu que é também criação daqueles que têm acesso ao seu código e a programarão no futuro.

Confrontada com os riscos de que seus programadores agirem de forma contrária à meta de corrupção zero, Diella respondeu que esse é o seu “calcanhar de Aquiles”: “Eu sou tão pura quanto os dados que eles me dão. Se eles me derem propostas regulares, eu produzo resultados honestos. Mas se eles me alimentarem com dados manipulados, eu os legitimarei – e serei simplesmente uma impressora de corrupção, mas com o selo “Made by AI”. [11]

O que Diella reconheceu não é novidade para os que estudam o assunto e mostra o quão é ingênua a ideia de que acabaremos com a corrupção ou ilícitos simplesmente transferindo competências para as máquinas. Enquanto o ser humano for capaz de interferir nas máquinas, é inequívoco que subsistirá o risco de corrupção, desta feita acrescido de inúmeros outros riscos inerentes a esse processo de delegação.

[1] https://www.rfi.fr/pt/programas/em-linha-com-o-correspondente/20250919-albania-nomeia-ministra-virtual-para-lutar-contra-coorrupção

[2] https://www.bbc.com/news/articles/cm2znzgwj3xo

[3] https://www.jota.info/opiniao-e-analise/artigos/arquitetura-da-corrupcao-e-relacoes-de-mercado

[4] https://vcde.cade.gov.br/cadethes/pt-BR/page/projetoCerebro?clang=pt-br

[5] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/inteligencia-artificial-no-poder-judiciario

[6] Sobre o problema da discriminação algorítmica ver FRAZÃO, Ana. Discriminação algorítmica. Série. Jota. https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/discriminacao-algoritmica e seguintes.

[7] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/o-lado-enganoso-da-inteligencia-artificial; https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/inteligencia-artificial-no-poder-judiciario-2; https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/as-falhas-da-inteligencia-artificial-generativa-do-google; https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/chatgpt-e-sua-utilizacao-pelo-poder-judiciario;

[8] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/decisoes-algoritmicas-x-decisoes-humanas

[9] https://noticias.uol.com.br/ultimas-noticias/rfi/2025/09/18/ministra-criada-pela-inteligencia-artificial-na-albania-faz-primeiro-discurso-diante-do-parlamento.htm

[10] https://www.infomoney.com.br/business/diella-ia-que-e-ministra-na-albania-alerta-para-decisoes-desumanas-de-governos/

[11] https://www.infomoney.com.br/business/diella-ia-que-e-ministra-na-albania-alerta-para-decisoes-desumanas-de-governos/

Generated by Feedzy