O Projeto de Lei 2.338/2023 é o resultado de um esforço do legislativo brasileiro para estabelecer um marco jurídico para a inteligência artificial e aborda, em seu Capítulo III, o delicado tema da reparação de danos.
A arquitetura de responsabilidade civil delineada pelo projeto assenta-se sobre as bases da responsabilidade objetiva, que prescinde da comprovação de dolo ou culpa, e da solidariedade entre os agentes do sistema de IA que causar dano patrimonial, moral, individual ou coletivo.
Tal abordagem, fundamentada na teoria do risco da atividade, visa a facilitar a reparação da vítima, que não precisaria adentrar na complexa cadeia de desenvolvimento e operação para individualizar a culpa, podendo demandar a reparação integral de qualquer um dos agentes.
Embora louvável em sua intenção protetiva, essa estrutura revela-se insuficiente e potencialmente contraproducente ao não tratar das especificidades intrínsecas à tecnologia de inteligência artificial. Com efeito, o texto legal opta por uma solução aparentemente simples, determinando em seu artigo 32 a aplicação subsidiária do Código de Defesa do Consumidor (CDC), da Lei Geral de Proteção de Dados (LGPD) e do Código Civil (CC). Essa remissão genérica a outros diplomas, sem a devida positivação de excludentes e atenuantes de ilicitude próprios para o contexto da IA, cria um vácuo normativo e uma perigosa insegurança jurídica que pode sufocar o ecossistema de inovação nacional.
A insuficiência torna-se clara ao confrontar a natureza da IA com as excludentes de responsabilidade tradicionais, como o caso fortuito e a força maior. A opacidade de muitos sistemas de aprendizado de máquina, comumente referida como o problema da “caixa-preta”, torna a determinação do nexo de causalidade uma tarefa extremamente desafiadora.
A autonomia e a capacidade de aprendizado contínuo desses sistemas podem levar a resultados emergentes e imprevisíveis, que não foram diretamente programados pelo desenvolvedor. Em tal cenário, a simples transposição de conceitos jurídicos pensados para tecnologias determinísticas do século XX mostra-se inadequada para governar os fenômenos probabilísticos do século XXI.
Uma lacuna relevante no projeto é a ausência de uma cláusula de excludente de ilicitude baseada no “estado da arte” tecnológico, também conhecida como “risco do desenvolvimento” – a exemplo do que consta do artigo 14 do CDC. Embora o CDC se aplique subsidiariamente, nem toda relação envolvendo IA será de consumo, ademais, gera insegurança jurídica a necessidade e a incerteza de o aplicador depender de analogias para gerenciar relações de direito.
Este princípio, fundamental em regimes de responsabilidade por produtos em jurisdições maduras, isenta o fornecedor de responsabilidade por danos decorrentes de defeitos que não poderiam ser conhecidos ou previstos quando o produto foi introduzido no mercado, à luz do conhecimento científico e técnico disponível. Ao silenciar sobre essa possibilidade, o PL 2.338/2023 impõe aos inovadores um fardo desproporcional, tornando-os responsáveis por riscos desconhecidos e, por vezes, incognoscíveis, o que representa uma barreira direta ao direito de inovar.
O efeito prático dessa omissão é um desincentivo à pesquisa e ao desenvolvimento de fronteira. Empresas e desenvolvedores, especialmente os de pequeno e médio porte, podem se sentir intimidados a lançar novas soluções no mercado brasileiro, temendo uma responsabilização objetiva e ilimitada por falhas que escapam ao seu controle e previsão. O custo do seguro para cobrir tais riscos tenderia a ser proibitivo, gerando um ambiente regulatório que, paradoxalmente, favorece a estagnação tecnológica ou a dominância de grandes corporações, as únicas capazes de absorver tais passivos.
Adicionalmente, o projeto de lei falha ao não estabelecer atenuantes de responsabilidade para os agentes que demonstram diligência e adotam as melhores práticas de governança. Um regime de responsabilidade civil moderno e eficaz não deve ser puramente punitivo, mas também indutor de comportamentos desejáveis. A legislação deveria prever a possibilidade de atenuação da responsabilidade para fornecedores e operadores que comprovadamente investiram em auditorias de impacto algorítmico, implementaram mecanismos robustos de mitigação de vieses, garantiram a transparência sobre o funcionamento dos sistemas e estabeleceram canais de contestação e recurso para os usuários.
Do ponto de vista da accountability, a ausência desses mecanismos de atenuação envia uma mensagem equivocada ao mercado: a de que o esforço para desenvolver e operar uma IA de forma ética e segura é juridicamente irrelevante. Um desenvolvedor negligente e um desenvolvedor diligente seriam, perante a lei, colocados no mesmo patamar de responsabilidade objetiva.
Isso mina a própria lógica de uma regulação que busca promover uma inovação responsável, pois remove os incentivos legais para que as empresas invistam em práticas que vão além do mínimo exigido, transformando a governança de IA em um mero exercício de conformidade burocrática, em vez de um compromisso genuíno com a segurança e a ética.
Outro ponto crítico da proposta legislativa é a sua concepção do usuário, tratado genericamente no texto como o “afetado”. Essa terminologia, embora comum em contextos de proteção, é redutora e transmite uma visão passiva do indivíduo na interação com a tecnologia. Ela evoca a imagem de um mero receptor de danos, ignorando que, na vasta maioria dos casos de uso de sistemas de IA, o usuário é um participante ativo, um agente que faz escolhas, insere comandos e direciona a ferramenta para seus próprios fins.
A interação com sistemas de IA, especialmente os generativos, é um processo eminentemente dialógico e cocriativo. O usuário não é um espectador passivo; ele fornece os prompts, ajusta os parâmetros, interpreta os resultados e, crucialmente, decide como utilizar o output gerado pela máquina. Ele não apenas participa da disseminação do uso da tecnologia, mas é o agente central que a aplica a contextos específicos, muitas vezes de maneiras não previstas pelo desenvolvedor original.
Ao ignorar essa agência, o PL 2.338/2023 deixa de atribuir qualquer dever ou responsabilidade ao usuário. Um regime de responsabilidade civil equilibrado deveria reconhecer a corresponsabilidade, considerando a contribuição do usuário para a ocorrência do dano. A legislação deveria contemplar a “culpa concorrente” ou mesmo a “culpa exclusiva do usuário” como excludentes ou atenuantes de ilicitude, especialmente em casos de mau uso deliberado, negligência grosseira ou a não observância de advertências e instruções claras fornecidas pelo fornecedor ou no contexto das regras e recomendações setoriais.
Imagine se um profissional de engenharia que utiliza uma IA para realizar cálculos estruturais. Se o sistema fornecer um resultado equivocado, mas o engenheiro, contrariando seu dever profissional de diligência e verificação, o utiliza sem qualquer análise crítica, resultando no colapso de uma estrutura, seria justo imputar a responsabilidade integral e objetiva apenas ao fornecedor da IA? A ausência de uma discussão sobre o dever de vigilância do usuário, especialmente em contextos profissionais, é uma falha que desconsidera a complexa cadeia de decisões que leva à concretização de um dano.
Essa visão passiva do “afetado” reforça um modelo paternalista de regulação, no qual o Estado e as empresas são os únicos atores com agência, e o cidadão é visto apenas como um sujeito vulnerável a ser protegido quando, na sociedade digital, os indivíduos são, cada vez mais, produtores e disseminadores de conteúdo e tecnologia.
Reconhecer sua responsabilidade é também uma forma de reconhecer sua autonomia e capacidade de fazer escolhas informadas. A lei deveria incentivar a literacia digital e o uso consciente da tecnologia, e a atribuição de responsabilidades é um dos mecanismos para tal.
Inscreva-se no canal do JOTA no Telegram e acompanhe as principais notícias, artigos e análises!
A combinação de uma responsabilidade objetiva estrita, sem excludentes específicas para o estado da arte, e a ausência de um regime de corresponsabilidade para os usuários, cria um desequilíbrio digno de nota. O PL 2.338/2023, em sua redação atual, arrisca-se a penalizar excessivamente o lado da oferta de tecnologia, enquanto isenta completamente o lado da demanda de seus deveres, criando um ambiente de risco moral que não favorece nem a inovação, nem o uso responsável da inteligência artificial.
Em suma, para que a legislação brasileira sobre IA seja eficaz e promova um verdadeiro ecossistema de inovação responsável, é imperativo que o debate sobre a responsabilidade civil seja aprofundado. É necessário ir além da simples remissão a diplomas legais existentes e construir um regime que contemple expressamente as excludentes de ilicitude, como o risco do desenvolvimento, e os atenuantes de responsabilidade para práticas de boa governança. Finalmente, é fundamental que o texto legal abandone a noção simplista do usuário como um “afetado” passivo e reconheça sua agência e corresponsabilidade no uso da tecnologia.
Apenas com uma distribuição mais equilibrada de deveres e responsabilidades entre todos os atores da cadeia — desenvolvedores, fornecedores, operadores e usuários — será possível criar um marco regulatório que proteja os cidadãos, incentive a inovação e promova uma cultura de uso consciente e ético da inteligência artificial no Brasil.