PL 2338 e a transição do discurso ético para o modelo sancionatório da IA

O debate brasileiro sobre inteligência artificial atravessa uma mudança silenciosa, mas estrutural. Se, nos últimos anos, a discussão esteve concentrada em princípios, diretrizes éticas e referências internacionais de soft law, o avanço do PL 2338/2023 indica um novo e decisivo lado da moeda: a discussão de enforcement, responsabilização e mecanismos concretos de controle.

Não se trata mais de afirmar que a IA deve ser “ética”, “transparente” ou “centrada no ser humano”. A pergunta agora deve ser “quem responde”, “como responde” e “com base em quais parâmetros” quando sistemas algorítmicos causam dano.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

É esperado que essa transição desloque o eixo do debate para o campo processual, probatório e sancionatório. E sim, é nesse terreno que as maiores disputas institucionais devem ocorrer.

Do princípio à responsabilidade civil por dano algorítmico

O PL 2338/2023 consolida a categorização de sistemas de IA por níveis de risco (resultado da inspiração em modelos regulatórios internacionais). Contudo, a classificação de risco, por si só, não resolve a questão central: como estruturar a responsabilidade civil por decisões automatizadas que produzem efeitos concretos sobre indivíduos e empresas?

Danos algorítmicos podem decorrer de discriminação indireta, erro estatístico, viés de base de dados, falhas de parametrização ou até de uso inadequado de uma ferramenta por terceiros. Nesse sentido, a imputação de responsabilidade exige distinguir:

falha do desenvolvedor,
falha do operador,
falha do fornecedor de dados,
ou risco inerente ao próprio modelo probabilístico.

Assim, a tendência é que o Judiciário seja provocado a enfrentar debates sofisticados sobre responsabilidade objetiva, teoria do risco da atividade e inversão do ônus da prova, considerando que o dano algorítmico desafia a lógica tradicional da culpa individualizada, pois envolve cadeias complexas de desenvolvimento, treinamento e até implementação.

Nesse contexto, o marco regulatório da IA não apenas disciplinará sobre tecnologia, mas também poderá abalar as estruturas do contencioso civil.

Padrões de auditoria e a construção da prova técnica

Outro ponto de reflexão está na exigência de mecanismos de governança, documentação e auditoria para sistemas de maior risco, uma vez que a previsão de relatórios de impacto e medidas de mitigação inaugura um novo campo probatório.

Ou seja, auditorias algorítmicas deixam de ser instrumentos reputacionais e passam a integrar o arsenal defensivo das organizações. Em outras palavras, é possível que a documentação de bases de dados, critérios de treinamento, testes de robustez e métricas de acurácia passem a se tornar elementos centrais em disputas judiciais e administrativas.

A consequência prática é evidente: a prova técnica em litígios envolvendo IA exigirá perícias altamente especializadas e o processo civil tradicional precisará dialogar com ciência de dados, estatística e engenharia computacional.

E o sistema judicial brasileiro está preparado para esse tipo de perícia? E, mais ainda, como assegurar um contraditório efetivo quando o objeto da disputa envolve modelos complexos e, por vezes, protegidos por segredo industrial?

Enforcement e litigância estratégica

A consolidação de um modelo sancionatório tende a estimular litigância estratégica em múltiplas frentes: (1) Ações individuais por discriminação algorítmica, especialmente em crédito, seguros e relações de consumo; (2) Atuação de associações e Ministério Público, com foco em danos coletivos; e (3) Procedimentos administrativos coordenados por autoridades reguladoras, potencialmente com aplicação de sanções pecuniárias.

A experiência da LGPD demonstra que a existência de um marco normativo claro amplia o espaço de disputa judicial e administrativa. Logo, a IA, ao afetar decisões delicadas (como concessão de crédito, seleção de candidatos, triagem médica, precificação dinâmica etc.) tende a produzir conflitos estruturais.

Mais uma vez, o PL 2338/2023 não apenas regula tecnologia, mas também pode acabar por “redefinir” incentivos de conformidade e alterar o custo do risco regulatório.

A consolidação de uma cultura de accountability algorítmica

A transição do discurso ético para o modelo sancionatório representa a maturidade do debate. E claro, princípios continuam relevantes, mas passam a operar como fundamento de responsabilização.

Empresas que tratavam governança de IA como diferencial competitivo devem passar a encará-la como requisito de sobrevivência regulatória e a cultura de accountability algorítmica (com rastreabilidade, explicabilidade e documentação) tende a se consolidar como padrão mínimo.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

A questão central para 2026 não é mais se haverá marco regulatório de IA, mas como será estruturado o arranjo institucional capaz de fiscalizar e sancionar violações.

O Brasil ingressa, assim, na fase decisiva: deixar a retórica normativa e enfrentar a engenharia jurídica do enforcement. E é nesse terreno de prova, da responsabilidade e do controle institucional que o verdadeiro impacto do PL 2338/2023 será medido.

Generated by Feedzy