O debate sobre a regulação da inteligência artificial (IA) no Brasil tem desafiado o equilíbrio entre estabelecer regras capazes de mitigar riscos sem comprometer a inovação e, ao mesmo tempo, não prejudicar a segurança jurídica para empresas, desenvolvedores e usuários. Por enquanto, o tema está longe do consenso: há perguntas que precisam ser sanadas, principalmente quanto ao seu grau de clareza e capacidade de acompanhar a evolução da tecnologia, apontam especialistas ouvidos pelo Estúdio JOTA.
Este é o primeiro de uma série de conteúdos publicados pelo JOTA com patrocínio da OpenAI para discutir a regulamentação da inteligência artificial sob diferentes ângulos.
O debate gira em torno, principalmente, do Projeto de Lei 2.338/2023, já aprovado pelo Senado e que agora é debatido pela Câmara dos Deputados. O texto cria um marco regulatório para o uso de IA no país e foi inspirado em modelos internacionais, como o europeu. Ele adota uma abordagem baseada em risco, classificando sistemas de IA de acordo com seu potencial de impacto sobre direitos fundamentais, e a proposta inicial foi resultado do trabalho de uma comissão de juristas.
Na proposta, um dos principais pontos de atenção está na definição de categorias como “alto risco” e “risco excessivo” para uma aplicação da inteligência artificial. Para Juliano Maranhão, professor da Universidade de São Paulo (USP) e diretor da Lawgorithm, os “critérios dão parâmetros, mas envolvem subjetividade na avaliação”.
Aplicações que envolvem dados sensíveis ou que possam produzir efeitos relevantes sobre o acesso a direitos tendem a ser enquadradas como de maior risco. Para esses casos, o projeto prevê medidas mais rigorosas, como avaliações de impacto, auditorias periódicas e neutralização de vieses e discriminação. O descumprimento pode levar a sanções, sob um regime de responsabilização ao longo de toda a cadeia – de desenvolvedores a fornecedores e usuários de sistemas de IA.
Segundo o modelo do projeto, a avaliação de risco e a tomada de medidas de governanças deverão ser feita pelos próprios agentes sujeitos à regulação, como desenvolvedores, fornecedores e operadores dos sistemas.
A proposta dá exemplos de aplicações consideradas de alto risco, especialmente em áreas sensíveis como crédito, saúde, educação e segurança pública. A lista, no entanto, não é necessariamente taxativa e convive com conceitos abertos, o que amplia a margem de interpretação.
Para Maranhão, esse desenho pode gerar distorções. “Isso pode trazer uma amplitude maior do que a desejada”, afirma. Segundo ele, ao combinar critérios gerais com a indicação de casos, a proposta pode enquadrar como alto risco situações que, na prática, não apresentam consequências relevantes sobre direitos fundamentais, a depender do contexto.
Entre os exemplos mais evidentes estão sistemas utilizados em concessão de crédito, seleção de candidatos em processos de emprego, diagnósticos na área da saúde e aplicações em educação ou segurança pública, especialmente quando envolvem avaliação de comportamento ou tomada de decisão automatizada.
Assim, podem ser classificados como de alto risco sistemas de identificação biométrica, usados em políticas públicas para acesso a benefícios e direitos. Dependendo da interpretação, ferramentas como sistemas de recomendação que influenciam decisões relevantes também podem cair na mesma classificação. Na segurança pública, mesmo que a IA seja explorada para fins estatísticos ou de apoio, ela já pode ser considerada de alto risco.
Também se abre margem para situações menos óbvias: um algoritmo que organize filas do SUS, por exemplo, poderia ser classificado como de alto risco por afetar o acesso à saúde.
O problema de uma abrangência tão ampla para as aplicações de “alto risco” é que isso freie a adoção da tecnologia, com impactos sobre ganhos de produtividade e inovação.
Por isso, Juliano Maranhão defende que a definição mais detalhada dos riscos e das obrigações fique a cargo de reguladores especializados, o que permitiria ajustes conforme o setor e a evolução tecnológica. Segundo ele, isso pode trazer a flexibilidade necessária ao modelo brasileiro.
“Não dá para fazer isso de forma adequada de modo transversal para todos os setores”, afirma Maranhão. “A especificação deve vir pela regulação setorial e pela autorregulação”, adiciona.
Zonas cinzentas
Por outro lado, há ressalvas quanto a deixar esses pontos em aberto no marco regulatório. Ricardo Limongi, professor de marketing e inteligência artificial da Universidade Federal de Goiás (UFG), vê na delegação excessiva à regulamentação posterior uma fonte relevante de incerteza jurídica. “Isso cria uma zona de indeterminação que, do ponto de vista da segurança jurídica, é problemática”, diz.
Se agentes que operam sistemas de recomendação, crédito, saúde ou recursos humanos, por exemplo, não têm clareza sobre o enquadramento de seus produtos quanto aos critérios de risco, isso pode estimular tanto a inação regulatória quanto o chamado litígio preventivo. “A previsibilidade não decorre da ausência de regras, mas da clareza e da consistência delas”, diz.
Além disso, a falta de clareza e lacunas em aberto podem ampliar a judicialização, caso não sejam resolvidas na regulamentação. Entre os principais vetores estão a imprecisão de conceitos centrais: além de “alto risco”, as interpretações sobre “dano significativo” e “ameaça a direitos fundamentais” também podem variar.
Conheça o Estúdio JOTA e as soluções para fortalecer a presença de marcas nos debates públicos
Outro ponto é a ausência de mecanismos administrativos claros para contestação de decisões regulatórias. O projeto não detalha, por exemplo, como uma empresa pode recorrer de uma classificação de risco, quais seriam os prazos ou instâncias responsáveis pela revisão.
Além disso, o modelo institucional distribui competências entre a Autoridade Nacional de Proteção de Dados (ANPD), responsável por normas gerais, e reguladores setoriais, como Banco Central ou Agência Nacional de Saúde Suplementar (ANS), o que pode gerar dúvidas sobre quem decide em casos concretos e abrir espaço para conflitos de competência.
Direito autoral no centro do debate
Outro ponto sensível diz respeito à forma como o projeto trata o uso de dados e conteúdos protegidos por direitos autorais no treinamento de sistemas de IA, tema que está no centro do debate global.
Para Allan Rocha de Souza, professor de Direito da Universidade Federal do Rio de Janeiro (UFRJ) e presidente do Instituto Brasileiro de Direitos Autorais (IBDAutoral), o texto atual não equilibra adequadamente a proteção de direitos e o estímulo à inovação. “Ele não protege autores, mas titulares empresariais de bases de dados”, afirma Souza.
Na avaliação do professor, a proposta corre o risco de favorecer grandes detentores de bases e organizações de gestão coletiva, sem necessariamente garantir proteção efetiva aos criadores individuais. E, ao contrário do que parte do debate sugere, o texto não apresenta, necessariamente, uma proteção direta a artistas e autores.
O projeto prevê que o uso de obras protegidas no treinamento de sistemas de IA esteja sujeito à identificação desses conteúdos, à gestão de consentimento e à remuneração dos titulares ainda na fase de desenvolvimento, antes mesmo de sua exploração econômica. “É custoso identificar as obras, gerir consentimento e remunerar já na fase de treinamento”, alerta o professor Juliano Maranhão.
Ainda, o texto aprovado pelo Senado estabelece obrigação de transparência sobre os dados utilizados no treinamento. Estão em debate no Legislativo a inclusão de mecanismos como opt-out pelos titulares de direitos autorais, em que o uso de dados é presumido até que o titular manifeste sua recusa, pedindo para ser excluído; e a possibilidade de negociação coletiva para licenciamento de conteúdos.
As medidas buscam estruturar um modelo de remuneração, mas ainda geram dúvidas sobre sua viabilidade operacional e seus impactos sobre o desenvolvimento de sistemas no Brasil.
Ao redor da proposta brasileira, o dissenso está tanto no lado dos autores quanto dos desenvolvedores de tecnologias. Nesse cenário, um caminho comum ainda precisa ser construído, o que exige mais tempo para compor diálogos e amadurecer propostas antes da consolidação do marco regulatório.
Um risco é que a aprovação sem que todas as arestas sejam aparadas impacte negativamente a competitividade do Brasil no desenvolvimento de inteligência artificial. Regras demasiadamente rígidas podem incentivar a migração do desenvolvimento tecnológico para outros países, mantendo no Brasil apenas o consumo dos produtos, por exemplo. Com isso, a concentração dos ganhos econômicos permanece fora do país.