Inteligência artificial: entre a regulação setorial e a alucinação centralizada

A cada grande avanço tecnológico, surgem novos riscos, dilemas éticos e oportunidades que requerem uma reflexão ponderada acerca do quanto e como as novas tecnologias devem ter seu uso restringido ou estimulado. É o que se observa, neste momento, com a inteligência artificial (IA). 

A iniciativa em estágio mais avançado de regulação da IA no Brasil – embora ainda distante de uma proposta madura – é a do PL 2338/2023, que parece acertar no diagnóstico de riscos relevantes, embora falhe ao pretender mitigar os riscos pela regulação centralizada e genérica da tecnologia. 

O primeiro obstáculo é o conceitual. Inexiste um acordo mínimo na literatura, entre organismos técnicos ou entre reguladores quanto ao significado de “inteligência artificial”. A ISO/IEC 22989:2022 e o glossário de termos em IA do NIST divergem. O documento conjunto de terminologia e taxonomia para a inteligência artificial, elaborado pelos EUA e União Europeia, foi publicado com o próprio conceito de IA ainda pendente. No AI Act europeu, há divergências entre o conceito proposto pelas três principais entidades envolvidas no processo decisório. O índice de definições internacionais de inteligência artificial da International Association of Privacy Professionals (IAPP) contém mais de 50 registros.

Não bastasse a dificuldade conceitual, diferentes segmentos possuem ângulos próprios. No setor de saúde, a IA é analisada a partir do seu potencial para diagnóstico e tratamento de doenças. Já no campo da ética e do direito, um foco maior é dado às implicações sociais de vieses em decisões automatizadas ou ao potencial tecnológico para o vigilantismo estatal. O debate fragmentado inviabiliza a formação de consensos coerentes para o todo.

A própria análise dos riscos confirma a inviabilidade do tratamento genérico. Como exemplo, o PL 2338 estabelece como sendo de alto risco, dentre outros, os sistemas de recrutamento e seleção de candidatos para relações de emprego. Há o claro risco do potencial discriminatório. Ocorre que o conceito de inteligência artificial no PL 2338, paradoxalmente, requer que o sistema computacional tenha sido “desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento”.

Ora, decisões automatizadas discriminatórias em relações de emprego independem do “desenho para inferir como atingir um conjunto de objetivos” ou do uso de “aprendizagem de máquina e/ou lógica e representação do conhecimento”. Há claro descompasso entre o conceito genérico e a abrangência necessária para tratar o risco específico.

Essa foi a razão para a cidade de Nova York ter optado por regular ferramentas automatizadas de decisão de emprego, e não, genericamente, a “inteligência artificial” (o que quer que se definisse por isso). A regulação de Nova York abrange não só aprendizagem de máquina, mas, explicitamente, técnicas como modelagem estatística e análise de dados. Além disso, um sistema detalhado de auditoria de vieses foi estabelecido, com categorias étnicas, de gênero e interseccionais. Esse detalhamento seria impossível em uma abordagem regulatória genérica.

No campo da automação veicular, a ISO/SAE PAS 22736:2021 (equivalente à SAE J3016, gratuitamente disponível) prevê seis níveis de automação. Os níveis não são definidos em função da tecnologia empregada para a direção autônoma, mas do grau de controle dos movimentos laterais e longitudinais. A autonomia exige a incorporação de outros subcampos da inteligência artificial, como a robótica, para acionamento físico dos componentes responsáveis pelo movimento, além da miríade de sensores para análise do ambiente externo.

Não há diferença, na perspectiva de riscos e direitos, se um acidente causado por veículo autônomo decorreu de falha no “aprendizado de máquina e/ou representação de conhecimento”, ou de falha eletromecânica ou de sensores do controle automatizado do movimento. O risco abrange o conjunto – inclusive robótico – da automação. O fato da delimitação conceitual do PL 2338/2023 não ser capaz de abranger o conjunto tecnológico que promove a automação de veículos – ainda que aponte o alto risco – é mais um efeito da abordagem centralizada que coloca veículos autônomos e score de crédito no mesmo balaio.

Um dos cenários mais temerários de regulação centralizada, entretanto, é o de aplicações para auxiliar diagnósticos e procedimentos médicos. A área da saúde, desde seus primórdios, exige uma avaliação diferenciada de riscos e benefícios que repercute desde o processo de autorização à responsabilidade civil. Inúmeros medicamentos e procedimentos são autorizados pela conclusão de que, estatisticamente, os benefícios superam os conhecidos riscos.

Recentemente, a The Lancet Oncology publicou um estudo de eficácia randomizado e controlado de sistema suportado por inteligência artificial para análise de mamografias, com resultado surpreendente. O benefício social da adoção desses sistemas deve ser avaliado por pesquisas e processos como os utilizados para a liberação de medicamentos e equipamentos por reguladores como a Anvisa, não por requisitos de uma regulação genérica de IA.

Uniformizar a responsabilidade civil ou obrigações de explicabilidade em áreas heterogêneas como veículos autônomos, equipamentos médicos, score de crédito e seleção de emprego, ao mero argumento de uso de inteligência artificial e sem que tenha havido qualquer análise de impacto regulatório, é, para dizer o mínimo, uma irresponsabilidade.

No mais, a realidade brasileira não autoriza a crença de que uma autoridade centralizada seja capaz de regular adequadamente todos os campos de aplicação de IA. O PL 2338, ao prever uma autoridade competente como órgão central, cria um modelo duplamente problemático. Primeiro, porque será inevitável a sobreposição de atribuições com reguladores já existentes como ANPD, Aneel, MEC, Banco Central, CNJ, Anvisa, Senatran etc. Segundo, porque seriam necessárias décadas para uma nova autoridade ser capaz de regular responsavelmente aplicações de IA desde scores de crédito a dispositivos médicos. Essa tarefa será exercida de forma mais célere e competente pelos reguladores setoriais já existentes, com seus quadros já especializados.

Melhor parece que o PL 2338 se concentre no estabelecimento de princípios e na identificação de riscos, estabelecendo obrigações para que os reguladores setoriais promovam as medidas pertinentes aos seus campos técnicos de atuação. A fixação homogênea de regras prescritivas, de regime de responsabilidade civil ou de abrangência tecnológica para riscos extremamente heterogêneos, pelo mero uso de IA, é um equívoco que, tivesse sido sugerido por uma IA generativa, seria tido por alucinação. Não há respaldo no mundo real.

A regulação de IA deve considerar que  diferentes riscos exigem abrangência distinta quanto às arquiteturas tecnológicas que serão abrangidas pela regulação, diferentes segmentos de aplicação possuem requisitos distintos para o tratamento da opacidade de processos decisórios automatizados, para o regime de responsabilidade civil na cadeia econômica ou para aspectos prescritivos, e a realidade brasileira não autoriza a crença infundada de que uma autoridade centralizada será capaz de regular adequadamente todos os campos de aplicação de IA previstos no PL 2338, de score de crédito a carros autônomos. 

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil, recentemente instituída no Senado, tem uma grande oportunidade de corrigir essas falhas e reorientar a modelagem para uma regulação predominantemente setorial. A alternativa centralizada não é exatamente promissora.

Generated by Feedzy