O PL 2338/2023, que busca criar o Marco Legal da Inteligência Artificial, parte de uma premissa verdadeira: a inovação tecnológica deve proteger os direitos fundamentais e valorizar o trabalho intelectual. Ao prever mecanismos de transparência, reserva de direitos (opt-out) e remuneração de titulares de direitos autorais utilizados no treinamento e operação de sistemas de IA, o texto em discussão no Congresso visa atender a uma preocupação legítima de criadores de obras de forma geral.
Tal posicionamento está em linha com a Estratégia Brasileira de Inteligência Artificial (EBIA), lançada em 2021 pelo Ministério da Ciência, Tecnologia e Inovações, que adota como princípio a chamada “inovação responsável”, combinando desenvolvimento tecnológico, ética, transparência e proteção de direitos. Reconhecer que a criação humana possui valor econômico e merece tutela no ambiente da IA é, portanto, um ponto incontroverso.
O risco está no desequilíbrio da solução proposta no PL 2338, que coloca o Brasil em uma posição mais restritiva que outros países, o que pode afastar investimentos em IA em um momento fundamental para o desenvolvimento dessa tecnologia.
O modelo ora em análise reproduz, em grande medida, a lógica da legislação brasileira de direitos autorais (Lei 9.610/1998). Trata-se de um sistema restritivo, no qual o uso de obras protegidas depende, como regra, de autorização prévia do titular, sendo admitidas exceções pontuais, expressamente delimitadas pelo legislador. Transposto para o universo da IA, esse desenho resulta em um regime no qual consentimento e remuneração se tornam a regra, enquanto as exceções, como o uso para fins não comerciais, são de alcance limitado. Em termos objetivos, o uso de obras protegidas por direito autoral no contexto de sistemas IA (tanto treinamento de algoritmos, como resultados produzidos (output)) devem ser remunerados.
Esse arranjo contrasta com modelos adotados em outros países. Nos Estados Unidos, por exemplo, a doutrina do fair use permite, em princípio, o uso não autorizado de obras em determinadas circunstâncias, especialmente quando o uso é transformativo, não substitui a exploração econômica da obra original e contribui para o avanço da criação intelectual.
Essa flexibilidade tem sido historicamente um dos motores da inovação norte-americana, pois reduz custos de transação e viabiliza novos usos criativos, sem a necessidade de licenciamento prévio em todos os casos. Obviamente, as fronteiras para a aplicação do princípio do fair use nos EUA, no contexto de IA, ainda estão longe de uma fixação clara pelos tribunais locais, eis que há muitas ações em andamento. Porém, o cenário regulatório confere maior flexibilidade para o uso não-remunerado em certas circunstâncias, diferentemente daqui.
No Brasil, ao se transportar para a IA a mesma lógica da Lei de Direitos Autorais, o PL 2338 corre o risco de criar entraves à inovação no país, elevando simultaneamente o custo e a incerteza jurídica associados ao desenvolvimento de sistemas de IA. Não se trata de um juízo de valor negativo sobre a importância e legitimidade da remuneração de criadores, mas sim de uma análise pragmática dos efeitos econômicos do modelo proposto e da redução da competitividade que isso vai ensejar.
Chama atenção a amplitude da redação adotada pelo projeto. Ao estabelecer que a remuneração deve observar critérios de “razoabilidade” e “proporcionalidade”, sem definir parâmetros minimamente objetivos, o texto não apenas dificulta, como praticamente inviabiliza, qualquer tentativa de estimar o impacto econômico do regime proposto.
Como se criar um plano de negócios para uma empresa que dependa de IA, se não há clareza em relação ao custo para treinar os modelos? Conceitos vagos, como os usados no PL 2338, longe de oferecerem flexibilidade, implicam incerteza regulatória e aumentam os custos de transação para todas as partes envolvidas. É ruim para o país.
Além disso, o modelo desenhado no PL 2338 tende a impor custos elevados relacionados à gestão e governança de bases de dados. A exigência, implícita ou explícita, de segregação do treinamento de modelos a partir de determinadas obras ou conjuntos de obras demandaria soluções tecnológicas complexas, sistemas de rastreamento, classificação e controle de dados em larga escala, além de estruturas de compliance e auditoria.
Trata-se de um ônus significativo, especialmente em um ambiente no qual o treinamento de modelos depende de volumes massivos de dados e de ciclos constantes de reprocessamento. O mundo parece caminhar em outra direção.
Em um cenário global altamente competitivo, esses fatores são decisivos. A corrida internacional por protagonismo em IA é intensa. Modelos são treinados e ajustados continuamente em ambientes sensíveis a custo, escala e previsibilidade regulatória. É nesse contexto que o contraste com outros países se torna ainda mais evidente.
Na União Europeia, a Diretiva de Direitos Autorais no Mercado Único Digital criou exceções expressas para text and data mining, inclusive para fins comerciais, condicionadas à eventual reserva de direitos (opt-out) pelos titulares. Na prática, o uso de obras protegidas para treinamento de modelos de IA é permitido sem pagamento obrigatório, salvo manifestação expressa em sentido contrário.
O Japão, por sua vez, foi além, ao adotar uma exceção ampla pró-inovação, permitindo o uso de obras protegidas para treinamento de IA inclusive com finalidade comercial, sendo que apenas obras reproduzidas nos resultados (output) são remuneradas. É uma solução inteligente. Mas o que realmente salta aos olhos é que tanto o modelo europeu como japonês são mais flexíveis que o que se propõe criar no Brasil, país que deveria seguir a lógica inversa para atrair investimentos.
Se o Brasil trilhar um caminho no qual a remuneração seja a regra e as exceções sejam por demais limitadas, haverá um descompasso regulatório preocupante. O incentivo econômico tende a ser simples e previsível: treinar modelos fora do Brasil, em países onde o custo regulatório é menor e a previsibilidade jurídica é maior.
Esse risco torna-se ainda mais sensível quando se observa o debate paralelo sobre o Redata, instituído pela MP 1.318/2025, cujo objetivo é atrair investimentos em data centers (isto é, processamento local de dados). O diagnóstico que sustenta essa iniciativa é perfeito: o país precisa criar condições regulatórias e econômicas favoráveis para sediar investimentos em tecnologia e computação de alto desempenho.
Há, contudo, uma tensão entre essas duas agendas. Um marco legal que encareça ou torne juridicamente incerto o treinamento de modelos de IA em território nacional pode comprometer a atratividade econômica. Data centers e infraestrutura de processamento só se justificam economicamente quando associados a usos intensivos de dados e ao treinamento de modelos em larga escala. Se esse treinamento ocorrer fora do país, o incentivo para se investir em infraestrutura local diminui de forma automática.
Isso não significa que a proteção a direitos autorais deva ser relegada a segundo plano. O desafio está em encontrar um ponto de equilíbrio que preserve a remuneração de criadores sem impor ao Brasil um custo excessivo, que gerará efeitos negativos ao país de forma geral. Esse equilíbrio exige definições claras, critérios objetivos, segurança jurídica e, sobretudo, uma avaliação realista dos efeitos econômicos do modelo adotado à luz da experiência internacional.
O treinamento de algoritmos deveria ser facilitado, remunerando-se o output que reproduza obras literalmente. Deveríamos pensar em incentivos adicionais para que o país se torne um hub internacional em IA. Estipular regras mais rígidas, que aumentam os custos locais, só vai produzir um efeito: afastar investimentos em um momento chave para a competição internacional em IA.
O Brasil precisa decidir se quer ser protagonista na economia da IA, ou apenas um grande mercado consumidor de tecnologias desenvolvidas, treinadas e escaladas em outros países.