{"id":5929,"date":"2024-02-27T19:54:41","date_gmt":"2024-02-27T22:54:41","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2024\/02\/27\/regulacao-de-ia-no-brasil-a-carroca-na-frente-dos-bois\/"},"modified":"2024-02-27T19:54:41","modified_gmt":"2024-02-27T22:54:41","slug":"regulacao-de-ia-no-brasil-a-carroca-na-frente-dos-bois","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2024\/02\/27\/regulacao-de-ia-no-brasil-a-carroca-na-frente-dos-bois\/","title":{"rendered":"Regula\u00e7\u00e3o de IA no Brasil: a carro\u00e7a na frente dos bois?"},"content":{"rendered":"<p><span><span>H\u00e1 tr\u00eas grandes modelos para a regula\u00e7\u00e3o de intelig\u00eancia artificial (IA) em discuss\u00e3o no mundo, segundo a professora Sue Bradford, autora do livro <\/span><\/span><span><span>Digital Empires: The Global Battle to Regulate Technology, (Oxford University Press, 2023).<\/span><\/span><\/p>\n<p><span><span>O primeiro deles, liderado pelos EUA, orientado para o mercado e focado no uso setorial de IA, o segundo sob a lideran\u00e7a chinesa liderado pelo Estado, e um terceiro modelo focado na cidadania e na prote\u00e7\u00e3o dos direitos fundamentais por parte da Uni\u00e3o Europeia. O Brasil parece emular o modelo europeu porque<\/span><\/span><span><span><span> traz uma bagagem regulat\u00f3ria para a governan\u00e7a da internet, baseada em um <a href=\"https:\/\/www.jota.info\/tudo-sobre\/marco-civil-internet\">Marco Civil da Internet,<\/a> preocupa-se com a garantia dos direitos fundamentais com a Lei Geral de Prote\u00e7\u00e3o de Dados (<a href=\"https:\/\/www.jota.info\/tudo-sobre\/lgpd\">LGPD<\/a>) e sugere a cria\u00e7\u00e3o de uma autoridade p\u00fablica centralizada para disciplinar o mercado de IA, aos moldes da rec\u00e9m-criada Autoridade Nacional de Prote\u00e7\u00e3o de Dados (<a href=\"https:\/\/www.jota.info\/tudo-sobre\/anpd\">ANPD<\/a>). O PL 2338\/23, em discuss\u00e3o no Congresso Nacional, sintetiza os esfor\u00e7os recentes de diferentes institui\u00e7\u00f5es em prover um marco regulat\u00f3rio p\u00fablico para a IA. <\/span><\/span><\/span><\/p>\n<p><span><span><span>Contudo, at\u00e9 hoje, discutimos muito o modelo de regula\u00e7\u00e3o p\u00fablica, e nos preocupamos pouco com a forma como as empresas est\u00e3o internalizando os sistemas de IA nas respectivas organiza\u00e7\u00f5es. Apesar do barulho com todas as aplica\u00e7\u00f5es da IA generativa que aparecem diariamente na imprensa, h\u00e1 um sil\u00eancio a respeito de como o setor privado est\u00e1 disciplinando suas pr\u00f3prias iniciativas para utilizar sistemas de IA em suas opera\u00e7\u00f5es, independentemente das posi\u00e7\u00f5es de governo.<\/span><\/span><\/span><\/p>\n<p><span><span><span>Sabemos que as aplica\u00e7\u00f5es da IA apresentam um leque amplo de possibilidades tecnol\u00f3gicas de prop\u00f3sito geral, com uma infinidade de ferramentas cujos resultados n\u00e3o s\u00e3o inteiramente previs\u00edveis. Uma coisa \u00e9 regular a concorr\u00eancia com indicadores objetivos de valor de <\/span><\/span><\/span><span><span><span>share<\/span><\/span><\/span><span><span><span> de mercado e n\u00famero de fus\u00f5es e aquisi\u00e7\u00f5es, outra coisa \u00e9 monitorar o impacto de algoritmos que aprendem na medida que processam grandes conjuntos de dados, com riscos indesejados para a privacidade, vieses discriminat\u00f3rios, amea\u00e7as \u00e0 democracia com <em>deep fake<\/em> e desinforma\u00e7\u00e3o.<\/span><\/span><\/span><\/p>\n<p><span><span><span>O uso respons\u00e1vel da IA deve ser defendido pelo setor privado, antes do governo assumir uma proposta regulat\u00f3ria. No entanto, isso deve ser feito com a\u00e7\u00f5es concretas, ou seja, o mercado precisa dizer a que veio, e o que quer, de forma ofensiva. Por exemplo, se o uso de IA envolver um tipo de decis\u00e3o tomada de forma automatizada, ela pode se revestir de certa opacidade, e n\u00e3o ser de f\u00e1cil explicabilidade. Nesses casos, a IA precisa de um gerenciamento espec\u00edfico que vai muito al\u00e9m dos sistemas tradicionais de monitoramento de TI.<\/span><\/span><\/span><\/p>\n<p><span><span><span>No caso de uso de grandes bancos de dados com<\/span><\/span><\/span><span><span> aprendizado de m\u00e1quina, em vez de uma l\u00f3gica desenvolvida por programadores para projetar sistemas com resultados conhecidos previamente, o uso de IA muda a maneira como tais os sistemas s\u00e3o desenvolvidos, justificados e<\/span><\/span> <span><span>implantados. Isso acontece porque os sistemas de IA que realizam aprendizado cont\u00ednuo acabam mudando o seu comportamento durante o uso, o que aumenta a incerteza acerca de seus resultados. Essa caracter\u00edstica exige da organiza\u00e7\u00e3o que desenvolve os sistemas de IA uma considera\u00e7\u00e3o especial para garantir que seu uso respons\u00e1vel seja continuado mesmo com essas mudan\u00e7as de comportamento.<\/span><\/span><\/p>\n<p><span><span>Precisamos de mais debate junto \u00e0s empresas acerca das<\/span><\/span><span><span> necessidades e objetivos da organiza\u00e7\u00e3o, quais s\u00e3o os processos que envolvem IA, sua estrutura, tamanho e as expectativas das partes interessadas, em que medida podem e devem influenciar o estabelecimento e implementa\u00e7\u00e3o de uma governan\u00e7a de IA. <\/span><\/span><\/p>\n<p><span><span>Outro problema diz respeito ao equil\u00edbrio entre os instrumentos de governan\u00e7a e inova\u00e7\u00e3o. Esse equil\u00edbrio \u00e9 delicado porque as empresas podem optar por aplicar esses instrumentos a casos de uso de IA espec\u00edficos e de alto risco, em vez de desenvolver um sistema amplo de gerenciamento de IA a todos os casos de uso, pois a aplica\u00e7\u00e3o ampla pode prejudicar o pr\u00f3prio modelo de neg\u00f3cio ou outros objetivos corporativos sem trazer quaisquer benef\u00edcios tang\u00edveis. Essas decis\u00f5es suscitam preocupa\u00e7\u00f5es que exigem revis\u00e3o constante, ao longo do ciclo de vida da tecnologia utilizada.<\/span><\/span><\/p>\n<p><span><span>Os sistemas que envolvem aplica\u00e7\u00f5es de IA das empresas devem estar integrados \u00e0 estrutura geral de gest\u00e3o, e as quest\u00f5es espec\u00edficas relacionadas \u00e0 IA precisam ser consideradas e respondidas de forma clara, no \u00e2mbito do desenho organizacional de processos, sistemas de informa\u00e7\u00e3o e controles. Por exemplo, as organiza\u00e7\u00f5es devem vocalizar uma pol\u00edtica de gest\u00e3o, que envolva IA, e seu uso, indicando a participa\u00e7\u00e3o das partes interessadas, com a gest\u00e3o de riscos, a transpar\u00eancia e fidedignidade dos sistemas e aplica\u00e7\u00f5es de IA que envolvam seguran\u00e7a, justi\u00e7a, qualidade dos dados e dos sistemas de IA. Os sistemas de gest\u00e3o de IA devem incluir ainda fornecedores e prestadores de servi\u00e7os que desenvolvem e fornecem sistemas de IA para a empresa.<\/span><\/span><\/p>\n<p><span><span><span>Para garantir a inova\u00e7\u00e3o de mercado e a IA para o bem, \u00e9 importante um \u201cprocesso de aprendizado\u201d entre empresas e governo. A regra deve ser constru\u00edda em comum acordo, com atribui\u00e7\u00f5es e compet\u00eancias bem definidas entre a autoridade p\u00fablica e o setor privado. N\u00e3o faz sentido falar em regula\u00e7\u00e3o de IA por uma autoridade p\u00fablica se as empresas ainda n\u00e3o produziram a governan\u00e7a de IA dentro das organiza\u00e7\u00f5es, com um modelo de avalia\u00e7\u00e3o de impacto dos sistemas de IA, e a defini\u00e7\u00e3o do escopo dos sistemas de IA entre provedores, produtores, clientes e parceiros etc.<\/span><\/span><\/span><\/p>\n<p><span><span><span>Da mesma forma, as organiza\u00e7\u00f5es precisam desenvolver uma Pol\u00edtica Geral de IA (com princ\u00edpios \u00e9ticos n\u00e3o apenas principiol\u00f3gicos, mas articulados \u00e0 gest\u00e3o e monitoramento), como ferramenta para abordar e mensurar riscos, dentro de um contexto maior de avalia\u00e7\u00e3o de desempenho, o que exige algum instrumento de monitoramento, medi\u00e7\u00e3o, an\u00e1lise e avalia\u00e7\u00e3o do uso de IA pela organiza\u00e7\u00e3o.<\/span><\/span><\/span><\/p>\n<p><span><span><span>N\u00e3o ser\u00e1 a autoridade p\u00fablica, com base em \u201ccomando e controle\u201d e san\u00e7\u00f5es, que criar\u00e1 esse ecossistema de IA no mercado, pois a velocidade do desenvolvimento tecnol\u00f3gico \u00e9 muito maior do que a velocidade para a entrada em vigor de normas jur\u00eddicas. Ou seja, ainda precisamos que o mercado indique um caminho, e as solu\u00e7\u00f5es de gest\u00e3o de IA dentro das organiza\u00e7\u00f5es seja minimamente configurada pelas pr\u00f3prias empresas.<\/span><\/span><\/span><\/p>\n<p><span><span><span>Essa \u00e9 uma pr\u00e9-condi\u00e7\u00e3o para um marco regulat\u00f3rio com autoridade p\u00fablica centralizada, se esta for realmente a escolha para a regula\u00e7\u00e3o de IA no Brasil. Em resumo, o mercado precisa de uma certa maturidade acerca dessas quest\u00f5es, antes de caminharmos para um modelo de regula\u00e7\u00e3o centralizado em uma autoridade p\u00fablica. Cabe \u00e0s empresas revelarem como se preocupam com os seus sistemas de gest\u00e3o, como gerenciam os riscos inerentes, e quais as pol\u00edticas corporativas de uso de IA que a sociedade deve acompanhar, assimilar e, eventualmente, questionar. Sem o mercado sinalizar esse caminho, falar em regula\u00e7\u00e3o p\u00fablica de IA \u00e9 colocar a carro\u00e7a na frente dos bois.<\/span><\/span><\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>H\u00e1 tr\u00eas grandes modelos para a regula\u00e7\u00e3o de intelig\u00eancia artificial (IA) em discuss\u00e3o no mundo, segundo a professora Sue Bradford, autora do livro Digital Empires: The Global Battle to Regulate Technology, (Oxford University Press, 2023). O primeiro deles, liderado pelos EUA, orientado para o mercado e focado no uso setorial de IA, o segundo sob [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/5929"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=5929"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/5929\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=5929"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=5929"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=5929"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}