{"id":4655,"date":"2023-09-19T16:46:40","date_gmt":"2023-09-19T19:46:40","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2023\/09\/19\/inteligencia-artificial-entre-a-regulacao-setorial-e-a-alucinacao-centralizada\/"},"modified":"2023-09-19T16:46:40","modified_gmt":"2023-09-19T19:46:40","slug":"inteligencia-artificial-entre-a-regulacao-setorial-e-a-alucinacao-centralizada","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2023\/09\/19\/inteligencia-artificial-entre-a-regulacao-setorial-e-a-alucinacao-centralizada\/","title":{"rendered":"Intelig\u00eancia artificial: entre a regula\u00e7\u00e3o setorial e a alucina\u00e7\u00e3o centralizada"},"content":{"rendered":"<p><span>A cada grande avan\u00e7o tecnol\u00f3gico, surgem novos riscos, dilemas \u00e9ticos e oportunidades que requerem uma reflex\u00e3o ponderada acerca do quanto e como as novas tecnologias devem ter seu uso restringido ou estimulado. \u00c9 o que se observa, neste momento, com a <a href=\"https:\/\/www.jota.info\/tudo-sobre\/inteligencia-artificial\">intelig\u00eancia artificial<\/a> (IA).\u00a0<\/span><\/p>\n<p><span>A iniciativa em est\u00e1gio mais avan\u00e7ado de regula\u00e7\u00e3o da IA no Brasil \u2013 embora ainda distante de uma proposta madura \u2013 \u00e9 a do <\/span><a href=\"https:\/\/www25.senado.leg.br\/web\/atividade\/materias\/-\/materia\/157233\"><span>PL 2338\/2023<\/span><\/a><span>, que parece acertar no diagn\u00f3stico de riscos relevantes, embora falhe ao pretender mitigar os riscos pela regula\u00e7\u00e3o centralizada e gen\u00e9rica da tecnologia.\u00a0<\/span><\/p>\n<p><span>O primeiro obst\u00e1culo \u00e9 o conceitual. Inexiste um acordo m\u00ednimo na literatura, entre organismos t\u00e9cnicos ou entre reguladores quanto ao significado de \u201cintelig\u00eancia artificial\u201d. A <\/span><a href=\"https:\/\/standards.iso.org\/ittf\/PubliclyAvailableStandards\/\"><span>ISO\/IEC 22989:2022<\/span><\/a><span> e o <\/span><a href=\"https:\/\/airc.nist.gov\/AI_RMF_Knowledge_Base\/Glossary\"><span>gloss\u00e1rio de termos em IA do NIST<\/span><\/a><span> divergem. O <\/span><span><a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/eu-us-terminology-and-taxonomy-artificial-intelligence\">documento<\/a> conjunto de terminologia e taxonomia para a intelig\u00eancia artificial<\/span><span>, elaborado pelos EUA e Uni\u00e3o Europeia, foi publicado com o pr\u00f3prio conceito de IA ainda pendente. No AI Act europeu, h\u00e1 <\/span><span><a href=\"https:\/\/artificialintelligenceact.eu\/wp-content\/uploads\/2023\/08\/AI-Mandates-20-June-2023.pdf\">diverg\u00eancias<\/a> entre o conceito proposto pelas tr\u00eas principais entidades envolvidas no processo decis\u00f3rio<\/span><span>. O \u00edndice de <\/span><a href=\"https:\/\/iapp.org\/resources\/article\/international-definitions-of-ai\/\"><span>defini\u00e7\u00f5es internacionais de intelig\u00eancia artificial<\/span><\/a><span> da International Association of Privacy Professionals (IAPP) cont\u00e9m mais de 50 registros.<\/span><\/p>\n<p><span>N\u00e3o bastasse a dificuldade conceitual, diferentes segmentos possuem \u00e2ngulos pr\u00f3prios. No setor de sa\u00fade, a IA \u00e9 analisada a partir do seu potencial para diagn\u00f3stico e tratamento de doen\u00e7as. J\u00e1 no campo da \u00e9tica e do direito, um foco maior \u00e9 dado \u00e0s implica\u00e7\u00f5es sociais de vieses em decis\u00f5es automatizadas ou ao potencial tecnol\u00f3gico para o vigilantismo estatal. O debate fragmentado inviabiliza a forma\u00e7\u00e3o de consensos coerentes para o todo.<\/span><\/p>\n<p><span>A pr\u00f3pria an\u00e1lise dos riscos confirma a inviabilidade do tratamento gen\u00e9rico. Como exemplo, o PL 2338 estabelece como sendo de alto risco, dentre outros, os sistemas de recrutamento e sele\u00e7\u00e3o de candidatos para rela\u00e7\u00f5es de emprego. H\u00e1 o claro risco do potencial discriminat\u00f3rio. Ocorre que o conceito de intelig\u00eancia artificial no PL 2338, paradoxalmente, requer que o sistema computacional tenha sido \u201cdesenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de m\u00e1quina e\/ou l\u00f3gica e representa\u00e7\u00e3o do conhecimento\u201d.<\/span><\/p>\n<p><span>Ora, decis\u00f5es automatizadas discriminat\u00f3rias em rela\u00e7\u00f5es de emprego independem do \u201cdesenho para inferir como atingir um conjunto de objetivos\u201d ou do uso de \u201caprendizagem de m\u00e1quina e\/ou l\u00f3gica e representa\u00e7\u00e3o do conhecimento\u201d. H\u00e1 claro descompasso entre o conceito gen\u00e9rico e a abrang\u00eancia necess\u00e1ria para tratar o risco espec\u00edfico.<\/span><\/p>\n<p><span>Essa foi a raz\u00e3o para a cidade de Nova York ter optado por <\/span><a href=\"https:\/\/rules.cityofnewyork.us\/wp-content\/uploads\/2023\/04\/DCWP-NOA-for-Use-of-Automated-Employment-Decisionmaking-Tools-2.pdf\"><span>regular ferramentas automatizadas de decis\u00e3o de emprego<\/span><\/a><span>, e n\u00e3o, genericamente, a \u201cintelig\u00eancia artificial\u201d (o que quer que se definisse por isso). A regula\u00e7\u00e3o de Nova York abrange n\u00e3o s\u00f3 aprendizagem de m\u00e1quina, mas, explicitamente, t\u00e9cnicas como modelagem estat\u00edstica e an\u00e1lise de dados. Al\u00e9m disso, um sistema detalhado de auditoria de vieses foi estabelecido, com categorias \u00e9tnicas, de g\u00eanero e interseccionais. Esse detalhamento seria imposs\u00edvel em uma abordagem regulat\u00f3ria gen\u00e9rica.<\/span><\/p>\n<p><span>No campo da automa\u00e7\u00e3o veicular, a ISO\/SAE PAS 22736:2021 (equivalente \u00e0 <\/span><span><a href=\"https:\/\/www.sae.org\/standards\/content\/j3016_202104\">SAE J3016<\/a>, gratuitamente dispon\u00edvel<\/span><span>) prev\u00ea seis n\u00edveis de automa\u00e7\u00e3o. Os n\u00edveis n\u00e3o s\u00e3o definidos em fun\u00e7\u00e3o da tecnologia empregada para a dire\u00e7\u00e3o aut\u00f4noma, mas do grau de controle dos movimentos laterais e longitudinais. A autonomia exige a incorpora\u00e7\u00e3o de outros subcampos da intelig\u00eancia artificial, como a rob\u00f3tica, para acionamento f\u00edsico dos componentes respons\u00e1veis pelo movimento, al\u00e9m da mir\u00edade de sensores para an\u00e1lise do ambiente externo.<\/span><\/p>\n<p><span>N\u00e3o h\u00e1 diferen\u00e7a, na perspectiva de riscos e direitos, se um acidente causado por ve\u00edculo aut\u00f4nomo decorreu de falha no \u201caprendizado de m\u00e1quina e\/ou representa\u00e7\u00e3o de conhecimento\u201d, ou de falha eletromec\u00e2nica ou de sensores do controle automatizado do movimento. O risco abrange o conjunto \u2013 inclusive rob\u00f3tico \u2013 da automa\u00e7\u00e3o. O fato da delimita\u00e7\u00e3o conceitual do PL 2338\/2023 n\u00e3o ser capaz de abranger o conjunto tecnol\u00f3gico que promove a automa\u00e7\u00e3o de ve\u00edculos \u2013 ainda que aponte o alto risco \u2013 \u00e9 mais um efeito da abordagem centralizada que coloca ve\u00edculos aut\u00f4nomos e score de cr\u00e9dito no mesmo balaio.<\/span><\/p>\n<p><span>Um dos cen\u00e1rios mais temer\u00e1rios de regula\u00e7\u00e3o centralizada, entretanto, \u00e9 o de aplica\u00e7\u00f5es para auxiliar diagn\u00f3sticos e procedimentos m\u00e9dicos. A \u00e1rea da sa\u00fade, desde seus prim\u00f3rdios, exige uma avalia\u00e7\u00e3o diferenciada de riscos e benef\u00edcios que repercute desde o processo de autoriza\u00e7\u00e3o \u00e0 responsabilidade civil. In\u00fameros medicamentos e procedimentos s\u00e3o autorizados pela conclus\u00e3o de que, estatisticamente, os benef\u00edcios superam os conhecidos riscos.<\/span><\/p>\n<p><span>Recentemente, a The Lancet Oncology publicou um <\/span><span><a href=\"https:\/\/www.thelancet.com\/journals\/lanonc\/article\/PIIS1470-2045(23)00298-X\/fulltext\">estudo<\/a> de efic\u00e1cia randomizado e controlado de sistema suportado por intelig\u00eancia artificial para an\u00e1lise de mamografias<\/span><span>, com resultado surpreendente. O benef\u00edcio social da ado\u00e7\u00e3o desses sistemas deve ser avaliado por pesquisas e processos como os utilizados para a libera\u00e7\u00e3o de medicamentos e equipamentos por reguladores como a Anvisa, n\u00e3o por requisitos de uma regula\u00e7\u00e3o gen\u00e9rica de IA.<\/span><\/p>\n<p><span>Uniformizar a responsabilidade civil ou obriga\u00e7\u00f5es de explicabilidade em \u00e1reas heterog\u00eaneas como ve\u00edculos aut\u00f4nomos, equipamentos m\u00e9dicos, score de cr\u00e9dito e sele\u00e7\u00e3o de emprego, ao mero argumento de uso de intelig\u00eancia artificial e sem que tenha havido qualquer an\u00e1lise de impacto regulat\u00f3rio, \u00e9, para dizer o m\u00ednimo, uma irresponsabilidade.<\/span><\/p>\n<p><span>No mais, a realidade brasileira n\u00e3o autoriza a cren\u00e7a de que uma autoridade centralizada seja capaz de regular adequadamente todos os campos de aplica\u00e7\u00e3o de IA. O PL 2338, ao prever uma autoridade competente como \u00f3rg\u00e3o central, cria um modelo duplamente problem\u00e1tico. Primeiro, porque ser\u00e1 inevit\u00e1vel a sobreposi\u00e7\u00e3o de atribui\u00e7\u00f5es com reguladores j\u00e1 existentes como ANPD, Aneel, MEC, Banco Central, CNJ, Anvisa, Senatran etc. Segundo, porque seriam necess\u00e1rias d\u00e9cadas para uma nova autoridade ser capaz de regular responsavelmente aplica\u00e7\u00f5es de IA desde scores de cr\u00e9dito a dispositivos m\u00e9dicos. Essa tarefa ser\u00e1 exercida de forma mais c\u00e9lere e competente pelos reguladores setoriais j\u00e1 existentes, com seus quadros j\u00e1 especializados.<\/span><\/p>\n<p><span>Melhor parece que o PL 2338 se concentre no estabelecimento de princ\u00edpios e na identifica\u00e7\u00e3o de riscos, estabelecendo obriga\u00e7\u00f5es para que os reguladores setoriais promovam as medidas pertinentes aos seus campos t\u00e9cnicos de atua\u00e7\u00e3o. A fixa\u00e7\u00e3o homog\u00eanea de regras prescritivas, de regime de responsabilidade civil ou de abrang\u00eancia tecnol\u00f3gica para riscos extremamente heterog\u00eaneos, pelo mero uso de IA, \u00e9 um equ\u00edvoco que, tivesse sido sugerido por uma IA generativa, seria tido por alucina\u00e7\u00e3o. N\u00e3o h\u00e1 respaldo no mundo real.<\/span><\/p>\n<p><span>A regula\u00e7\u00e3o de IA deve considerar que\u00a0 diferentes riscos exigem abrang\u00eancia distinta quanto \u00e0s arquiteturas tecnol\u00f3gicas que ser\u00e3o abrangidas pela regula\u00e7\u00e3o, diferentes segmentos de aplica\u00e7\u00e3o possuem requisitos distintos para o tratamento da opacidade de processos decis\u00f3rios automatizados, para o regime de responsabilidade civil na cadeia econ\u00f4mica ou para aspectos prescritivos, e a realidade brasileira n\u00e3o autoriza a cren\u00e7a infundada de que uma autoridade centralizada ser\u00e1 capaz de regular adequadamente todos os campos de aplica\u00e7\u00e3o de IA previstos no PL 2338, de score de cr\u00e9dito a carros aut\u00f4nomos.\u00a0<\/span><\/p>\n<p><span>A <\/span><span><a href=\"https:\/\/legis.senado.leg.br\/comissoes\/comissao?codcol=2629\">Comiss\u00e3o Tempor\u00e1ria Interna sobre Intelig\u00eancia Artificial<\/a> no Brasil<\/span><span>, recentemente institu\u00edda no Senado, tem uma grande oportunidade de corrigir essas falhas e reorientar a modelagem para uma regula\u00e7\u00e3o predominantemente setorial. A alternativa centralizada n\u00e3o \u00e9 exatamente promissora.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>A cada grande avan\u00e7o tecnol\u00f3gico, surgem novos riscos, dilemas \u00e9ticos e oportunidades que requerem uma reflex\u00e3o ponderada acerca do quanto e como as novas tecnologias devem ter seu uso restringido ou estimulado. \u00c9 o que se observa, neste momento, com a intelig\u00eancia artificial (IA).\u00a0 A iniciativa em est\u00e1gio mais avan\u00e7ado de regula\u00e7\u00e3o da IA no [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/4655"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=4655"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/4655\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=4655"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=4655"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=4655"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}