Em 16 de agosto último, preocupada com os grupos vulneráveis e o potencial aumento da judicialização e atendendo a protestos de várias instituições, a Defensoria Pública da União (DPU) enviou um ofício ao Instituto Nacional do Seguro Social (INSS) questionando o uso de inteligência artificial (IA) para automatizar a decisão de concessão de benefícios como aposentadoria, pensão e auxílio-maternidade.
O modelo de IA do INSS foi desenvolvido pela Dataprev, empresa pública brasileira de tecnologia e informações da Previdência Social, vinculada ao Ministério da Fazenda. O procedimento é relativamente simples: o beneficiário solicita o benefício por meio digital, o sistema (“Robô do INSS”) verifica as informações junto à base de dados da Administração Pública, analisa se estão em ordem os requisitos legais e autoriza ou nega o benefício pleiteado.
O “Robô do INSS” já é responsável por processar 35% dos pedidos, mas o preenchimento equivocado da solicitação pode acarretar negação da solicitação, o que favorece os letrados digitalmente (ou discrimina os não letrados). A IA tem predicados para aumentar a eficiência da gestão pública. Contudo, sem diretrizes de uso não há como prever e, consequentemente, mitigar os potenciais danos aos usuários. Nesse caso, por exemplo, o sistema da Dataprev deveria ser submetido a auditoria independente para identificar a formação da cadeia de suprimento do sistema criado para o INSS (em geral, os sistemas agregam vários algoritmos com múltiplas origens), investigar as variáveis iniciais (ou hiperparâmetros) e a base de dados de treinamento do sistema, que podem ou não gerar viés discriminatório. É temeroso adotar um sistema de IA antes de submetê-lo a um escrutínio qualificado.
Esse é um caso ilustrativo, mas não é uma exceção. A Justiça brasileira, outro setor sensível, tem mais de 100 sistemas de IA funcionando, ou em vias de funcionamento, em diversos tribunais país afora. Acompanhando a tendência mundial – abstraindo a confusão entre mera automação, modelos estatísticos avançados e modelos estatísticos habilitados por inteligência artificial – prolifera no Brasil a adoção da IA pelo setor público e privado, em distintos setores, na execução de distintas tarefas.
Em reação à proliferação de uso, prolifera o clamor por regulamentação. O relatório AI100 da Universidade de Stanford sinaliza, nos últimos cinco anos, um maior engajamento de 60 países em iniciativas nacionais e vários esforços multilaterais contemplando orientações de política específica por setor, estudos pilotos, estruturas voluntárias para conformidade e padrões formais. Emergiram, igualmente, esforços cooperativos entre países na busca, por exemplo, por definir e incorporar avaliações de impacto da IA nos processos de desenvolvimento dos sistemas (ética by design). É intenso o debate sobre se a regulamentação ativa seria apropriada e como implementá-la, e as respostas não são triviais.
O PL 2338 do senador Rodrigo Pacheco (PSD-MG), atualmente em tramitação no Senado, é o melhor projeto de lei para criação do Marco Regulatório da Inteligência Artificial no Brasil, posto que os demais são inócuos tanto para incentivar a inovação quanto para proteger a sociedade de potenciais danos. O PL 2338 é um bom ponto de partida, mas requer aperfeiçoamentos, no geral, para: a) reduzir os custos de conformidade que afetam negativamente a inovação e positivamente a concentração de mercado (empresas médias, pequenas e startups terão dificuldade em atender às obrigações legais); e b) especificar melhor os direitos do usuário afetado, evitando uma enxurrada de ações judiciais.
Em paralelo ao debate regulatório, é imprescindível padronizar os requisitos de avaliação de risco, o teor dos registros e documentos de avaliação, e os parâmetros a serem utilizados pela autoridade competente para determinar a reclassificação e avaliação de impacto algorítmico, bem como padronizar os direitos dos usuários afetados previstos do artigo 5º ao artigo 12. Entre os especialistas mundo afora, forma-se um consenso de que a efetividade de qualquer regulamentação da IA depende de estabelecer padrões que podem ser elaborados, colaborativamente, pelas agências reguladoras setoriais e entidades da sociedade.
Na regulamentação moderna, a tendência é firmar acordos de colaboração entre o poder público e as entidades da sociedade: ao primeiro cabe a função de estabelecer um arcabouço regulatório mínimo, e às segundas conceder certificações (espécie de “selo de qualidade”). O Institute of Electrical and Electronics Engineers (IEEE) – maior organização profissional –, por exemplo, anunciou o IEEE CertifAIEd, um conjunto de critérios éticos baseado em risco para auxiliar as organizações na disponibilização de experiências mais confiáveis aos seus usuários; a certificação atesta que o produto, serviço ou sistema foi verificado e que está de acordo com os padrões de confiabilidade estabelecidos em torno de quatro grandes blocos: Transparência, Accountability, Viés Algorítmico e Privacidade.
Mesmo considerando a credibilidade do IEEE, contudo, é fundamental que o Estado garanta o interesse público, ou seja, valide ou não as certificações de instituições privadas. Estabelecer arcabouços regulatórios é crítico, inclusive para garantir a segurança jurídica e gerar confiança no mercado. Atribuir, exclusivamente, ao juiz a função de arbitrar os potenciais conflitos pode gerar insegurança no ambiente institucional do país.
Outro aspecto a ser considerado é que a inteligência artificial transcende fronteiras, o que contraria a ideia de cada governo estabelecer seu próprio arcabouço regulatório. As grandes empresas de tecnologia, particularmente as cinco big techs americanas – Google, Microsoft, Amazon, Apple e Meta/Facebook – operam globalmente, treinando seus modelos de IA em bases de dados transnacionais e oferecendo seus produtos e serviços habilitados por IA em praticamente todo o Ocidente. Navegar em regimes regulatórios conflitantes gera incertezas e aumenta os custos de estar em compliance, o que pode resultar em efeitos negativos sobre a inovação e até mesmo sobre o acesso dos cidadãos a esses produtos e serviços. No entanto, como estabelecer padrões consistentes em todos os mercados? Como alinhar os interesses nacionais?
O cenário regulatório está tão complexo quanto a própria tecnologia de IA. Processos mais avançados como o europeu – vide a proposta da Comissão Europeia (AI Act) lançada em 21 de abril de 2021 e votada no Parlamento Europeu em 14 de junho último – ainda estão longe de equacionar os conflitos e as imprecisões; mesmo que seja aprovada até o final do ano, a expectativa é que entre em vigência em 2026.
Independentemente de haver ou não um Marco Regulatório da IA, recomenda-se fortemente às organizações públicas e privadas que elaborem suas diretrizes de desenvolvimento (quando for o caso) e uso da IA, ou seja, uma política de governança de IA com instrumentos eficientes de monitoramento contínuo de risco, incluindo Comitê de Risco de IA composto de membros diversificados cognitivamente (especialistas em tecnologia, advogados, eticistas, especialistas em impactos éticos e sociais, conhecedores do domínio de aplicação e do negócio em questão).