A discussão pública sobre inteligência artificial ainda tropeça no espantalho errado. Fala-se obsessivamente de consciência, vontade, intenções ocultas. Pergunta-se quando a máquina “vai pensar”. Enquanto isso, o essencial passa ao largo: a IA já exerce poder relevante sem precisar de consciência alguma – e esse poder, justamente por não ter sujeito, é mais difícil de controlar, contestar e responsabilizar.
O risco real não é ontológico, é político.
Sistemas de IA já organizam a visibilidade do mundo, hierarquizam informações, recomendam decisões, definem prioridades, modulam comportamentos e estreitam o campo do possível. Não “mandam” como um governante clássico; condicionam como um ambiente. Não ordenam; predispõem. Não impõem; naturalizam. E fazem isso em escala, velocidade e opacidade incompatíveis com os mecanismos tradicionais de controle democrático.
A primeira perda não é de controle técnico, mas epistêmica. Não entendemos mais, em termos humanos auditáveis, como certas decisões são produzidas. Aceitamos o resultado porque “funciona”. O passo seguinte é político: quando não se compreende o processo, enfraquece-se a capacidade de contestação. E onde não há contestação efetiva, há assimetria de poder.
É aqui que a metáfora da consciência atrapalha. Poder não precisa de interioridade. Historicamente, os poderes mais duráveis não foram os mais conscientes ou intencionais, mas os naturalizados – mercado, tradição, técnica, burocracia. A IA se encaixa nesse padrão com perfeição. Não há vontade a interpelar, discurso a refutar ou culpa a atribuir. Só resta a frase fatalista: “é o sistema”.
Isso desloca a responsabilidade para uma zona cinzenta perigosíssima. Quem age quando a IA age? Quem decide os objetivos? Quem define os critérios? Quem responde pelos efeitos? Se essas perguntas não forem respondidas antes, elas serão respondidas depois, pragmaticamente, por quem já controla a infraestrutura, os dados e os incentivos econômicos.
Regulação, aqui, não é censura tecnológica nem freio ao progresso. É metafísica aplicada – no melhor sentido do termo. Trata-se de definir quem é sujeito, onde começa a causalidade, quem responde por quê. O direito sempre fez isso. Empresas viraram pessoas jurídicas; contratos criaram obrigações inexistentes na natureza; o Estado monopolizou a violência legítima. Nada disso foi “natural”. Tudo foi decisão política organizada juridicamente.
Com a IA, a omissão regulatória não gera neutralidade. Gera metafísica implícita e ruim: algoritmo como força da natureza, decisão técnica como destino, efeito sem autor. É a despolitização ontológica do poder. E poder despolitizado é poder irresponsável.
Regular IA, portanto, não é perguntar se máquinas pensam. É estabelecer limites claros de atribuição de responsabilidade, auditabilidade, transparência decisória, governança dos objetivos e possibilidade real de contestação. É impedir que a decisão automática se torne inevitável por inércia. É manter humanos – instituições humanas – na sala, e não apenas assinando no rodapé.
A alternativa é aceitar um mundo cada vez mais organizado por sistemas que ninguém governa plenamente, mas aos quais todos obedecem porque “faz sentido”. Isso não exige distopia futurista. Basta eficiência sem controle.
A consciência pode nunca chegar. O poder, esse, já chegou faz tempo. E é exatamente por isso que a regulação não é opcional, nem ideológica. É condição mínima de preservação do Estado de Direito em um ambiente cognitivo mediado por máquinas.
Ignorar a metafísica não elimina o problema. Só entrega o comando a quem estiver mais perto do botão.