O debate brasileiro sobre inteligência artificial atravessa uma mudança silenciosa, mas estrutural. Se, nos últimos anos, a discussão esteve concentrada em princípios, diretrizes éticas e referências internacionais de soft law, o avanço do PL 2338/2023 indica um novo e decisivo lado da moeda: a discussão de enforcement, responsabilização e mecanismos concretos de controle.
Não se trata mais de afirmar que a IA deve ser “ética”, “transparente” ou “centrada no ser humano”. A pergunta agora deve ser “quem responde”, “como responde” e “com base em quais parâmetros” quando sistemas algorítmicos causam dano.
É esperado que essa transição desloque o eixo do debate para o campo processual, probatório e sancionatório. E sim, é nesse terreno que as maiores disputas institucionais devem ocorrer.
Do princípio à responsabilidade civil por dano algorítmico
O PL 2338/2023 consolida a categorização de sistemas de IA por níveis de risco (resultado da inspiração em modelos regulatórios internacionais). Contudo, a classificação de risco, por si só, não resolve a questão central: como estruturar a responsabilidade civil por decisões automatizadas que produzem efeitos concretos sobre indivíduos e empresas?
Danos algorítmicos podem decorrer de discriminação indireta, erro estatístico, viés de base de dados, falhas de parametrização ou até de uso inadequado de uma ferramenta por terceiros. Nesse sentido, a imputação de responsabilidade exige distinguir:
falha do desenvolvedor,
falha do operador,
falha do fornecedor de dados,
ou risco inerente ao próprio modelo probabilístico.
Assim, a tendência é que o Judiciário seja provocado a enfrentar debates sofisticados sobre responsabilidade objetiva, teoria do risco da atividade e inversão do ônus da prova, considerando que o dano algorítmico desafia a lógica tradicional da culpa individualizada, pois envolve cadeias complexas de desenvolvimento, treinamento e até implementação.
Nesse contexto, o marco regulatório da IA não apenas disciplinará sobre tecnologia, mas também poderá abalar as estruturas do contencioso civil.
Padrões de auditoria e a construção da prova técnica
Outro ponto de reflexão está na exigência de mecanismos de governança, documentação e auditoria para sistemas de maior risco, uma vez que a previsão de relatórios de impacto e medidas de mitigação inaugura um novo campo probatório.
Ou seja, auditorias algorítmicas deixam de ser instrumentos reputacionais e passam a integrar o arsenal defensivo das organizações. Em outras palavras, é possível que a documentação de bases de dados, critérios de treinamento, testes de robustez e métricas de acurácia passem a se tornar elementos centrais em disputas judiciais e administrativas.
A consequência prática é evidente: a prova técnica em litígios envolvendo IA exigirá perícias altamente especializadas e o processo civil tradicional precisará dialogar com ciência de dados, estatística e engenharia computacional.
E o sistema judicial brasileiro está preparado para esse tipo de perícia? E, mais ainda, como assegurar um contraditório efetivo quando o objeto da disputa envolve modelos complexos e, por vezes, protegidos por segredo industrial?
Enforcement e litigância estratégica
A consolidação de um modelo sancionatório tende a estimular litigância estratégica em múltiplas frentes: (1) Ações individuais por discriminação algorítmica, especialmente em crédito, seguros e relações de consumo; (2) Atuação de associações e Ministério Público, com foco em danos coletivos; e (3) Procedimentos administrativos coordenados por autoridades reguladoras, potencialmente com aplicação de sanções pecuniárias.
A experiência da LGPD demonstra que a existência de um marco normativo claro amplia o espaço de disputa judicial e administrativa. Logo, a IA, ao afetar decisões delicadas (como concessão de crédito, seleção de candidatos, triagem médica, precificação dinâmica etc.) tende a produzir conflitos estruturais.
Mais uma vez, o PL 2338/2023 não apenas regula tecnologia, mas também pode acabar por “redefinir” incentivos de conformidade e alterar o custo do risco regulatório.
A consolidação de uma cultura de accountability algorítmica
A transição do discurso ético para o modelo sancionatório representa a maturidade do debate. E claro, princípios continuam relevantes, mas passam a operar como fundamento de responsabilização.
Empresas que tratavam governança de IA como diferencial competitivo devem passar a encará-la como requisito de sobrevivência regulatória e a cultura de accountability algorítmica (com rastreabilidade, explicabilidade e documentação) tende a se consolidar como padrão mínimo.
A questão central para 2026 não é mais se haverá marco regulatório de IA, mas como será estruturado o arranjo institucional capaz de fiscalizar e sancionar violações.
O Brasil ingressa, assim, na fase decisiva: deixar a retórica normativa e enfrentar a engenharia jurídica do enforcement. E é nesse terreno de prova, da responsabilidade e do controle institucional que o verdadeiro impacto do PL 2338/2023 será medido.