{"id":9844,"date":"2025-03-28T21:56:51","date_gmt":"2025-03-29T00:56:51","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2025\/03\/28\/regulacao-da-ia-para-protecao-de-direitos-fundamentais\/"},"modified":"2025-03-28T21:56:51","modified_gmt":"2025-03-29T00:56:51","slug":"regulacao-da-ia-para-protecao-de-direitos-fundamentais","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2025\/03\/28\/regulacao-da-ia-para-protecao-de-direitos-fundamentais\/","title":{"rendered":"Regula\u00e7\u00e3o da IA para prote\u00e7\u00e3o de direitos fundamentais"},"content":{"rendered":"<p>Ao longo dos \u00faltimos meses tem sido uma constante nos depararmos com textos cr\u00edticos ao Regulamento Europeu para a <a href=\"https:\/\/www.jota.info\/tudo-sobre\/inteligencia-artificial\">Intelig\u00eancia Artificial<\/a>. As cr\u00edticas, publicadas em jornais, revistas e sites especializados, de autoria de importantes atores do mercado, pol\u00edticos, pesquisadores da \u00e1rea ou comunicadores em geral, martelam os mesmos argumentos para questionar a op\u00e7\u00e3o europeia de regular a IA de forma a condicionar esse novo mercado a regras que protejam os direitos fundamentais do ser humano.<\/p>\n<p>Alegam os cr\u00edticos que os riscos destas novas tecnologias est\u00e3o sendo \u201csuperdimensionados\u201d, e que a regula\u00e7\u00e3o adotada pela Europa ir\u00e1 \u201cinibir a inova\u00e7\u00e3o\u201d e deixar\u00e1 o continente para tr\u00e1s na \u201ccorrida\u201d pela IA.<\/p>\n<h3><a href=\"https:\/\/www.jota.info\/produtos\/poder?utm_source=cta-site&amp;utm_medium=site&amp;utm_campaign=campanha_poder_q2&amp;utm_id=cta_texto_poder_q2_2023&amp;utm_term=cta_texto_poder&amp;utm_term=cta_texto_poder_meio_materias\"><span>Conhe\u00e7a o <span class=\"jota\">JOTA<\/span> PRO Poder, plataforma de monitoramento que oferece transpar\u00eancia e previsibilidade para empresas<\/span><\/a><\/h3>\n<p>Como o Brasil est\u00e1 prestes a adotar uma legisla\u00e7\u00e3o nacional sobre IA que tem como inspira\u00e7\u00e3o o Regulamento Europeu, as cr\u00edticas ao Regulamento Europeu respingam no <a href=\"https:\/\/www25.senado.leg.br\/web\/atividade\/materias\/-\/materia\/157233\">PL 2338\/2023<\/a>, aprovado pelo Senado e atualmente em tramita\u00e7\u00e3o (devagar, quase parando) na C\u00e2mara dos Deputados.<\/p>\n<p>Os cr\u00edticos da proposta brasileira bradam os mesmos argumentos que circulam na Europa, alegando que o Brasil estar\u00e1 perdendo oportunidade de se destacar na \u201ccorrida\u201d caso aprove o Projeto de Lei proposto, al\u00e9m de perder capacidade para desenvolver uma IA nacional para problemas nacionais.<\/p>\n<p>Ocorre que os referidos cr\u00edticos est\u00e3o se esquecendo de um detalhe nada comezinho: o Regulamento Europeu para IA e o PL 2338 visam orientar o desenvolvimento e a incorpora\u00e7\u00e3o destas novas tecnologias em nossa sociedade a partir de uma perspectiva de benef\u00edcio ao ser humano e de respeito integral aos direitos fundamentais reconhecidos em diversos Tratados Internacionais e Constitui\u00e7\u00f5es nacionais.<\/p>\n<p>A liberdade econ\u00f4mica e de iniciativa empresarial deve ser exercida com responsabilidade e respeito a esses direitos. Trata-se, assim, de mais um aborrecido cap\u00edtulo do capital e da livre iniciativa econ\u00f4mica contra quaisquer obst\u00e1culos que se apresentem contra seus interesses econ\u00f4micos de curto ou curt\u00edssimo prazo, mesmo que esses interesses atropelem direitos e garantias fundamentais do ser humano e coloquem o planeta ou a pr\u00f3pria humanidade em risco.<\/p>\n<p>Por essa raz\u00e3o, \u00e9 fundamental conhecer o conte\u00fado do Regulamento Europeu para IA, que foi inspira\u00e7\u00e3o do PL 2338, para que se possa ter clareza de seus pontos positivos e de seus objetivos que visam, acima de tudo, proteger o ser humano contra os riscos potenciais destas novas tecnologias.<\/p>\n<p>Inicialmente, vale destacar quatro pontos fundamentais que orientam todo o Regulamento e que s\u00e3o absolutamente razo\u00e1veis para a prote\u00e7\u00e3o dos direitos humanos:<\/p>\n<p><strong>Classifica\u00e7\u00e3o da IA de acordo com seu risco<\/strong><\/p>\n<p>O Regulamento Europeu organiza toda uma l\u00f3gica regulat\u00f3ria que classifica as diferentes tecnologias em diferentes n\u00edveis de risco aos seres humanos, considerando diversas ordens de risco. Para cada ordem de risco s\u00e3o estipuladas exig\u00eancias diferentes, indo de proibi\u00e7\u00f5es a regras bastante permissivas a depender do risco da tecnologia com IA analisada.<\/p>\n<p><strong>Sistemas de IA proibidos <\/strong><\/p>\n<p>O regulamento estabelece aquilo que \u00e9 considerado risco inaceit\u00e1vel. Por serem considerados riscos inaceit\u00e1veis, o regulamento pro\u00edbe tecnologias que exponham seres humanos a tais tipos de risco.<\/p>\n<p>S\u00e3o exemplos de sistemas de IA de risco inaceit\u00e1vel, e portanto proibidos, os sistemas voltados a:<\/p>\n<p>Implantar t\u00e9cnicas subliminares, manipulativas ou enganosas para distorcer o comportamento e prejudicar a tomada de decis\u00f5es, causando danos significativos.<br \/>\nExplorar vulnerabilidades relacionadas \u00e0 idade, defici\u00eancia ou circunst\u00e2ncias socioecon\u00f4micas para distorcer o comportamento, causando danos significativos.<br \/>\nAvaliar ou classificar indiv\u00edduos ou grupos com base no comportamento social ou tra\u00e7os pessoais, causando tratamento prejudicial ou desfavor\u00e1vel a essas pessoas.<br \/>\nAvaliar o risco de um indiv\u00edduo cometer crimes apenas com base em perfis ou tra\u00e7os de personalidade, exceto quando usado para aumentar avalia\u00e7\u00f5es humanas com base em fatos objetivos e verific\u00e1veis \u200b\u200bdiretamente vinculados \u00e0 atividade criminosa.<br \/>\nCompilar bancos de dados de reconhecimento facial por meio de coleta n\u00e3o direcionada de imagens faciais da internet ou de filmagens.<br \/>\nCriar sistemas de categoriza\u00e7\u00e3o biom\u00e9trica que inferem atributos sens\u00edveis (ra\u00e7a, opini\u00f5es pol\u00edticas, filia\u00e7\u00e3o sindical, cren\u00e7as religiosas ou filos\u00f3ficas, vida sexual ou orienta\u00e7\u00e3o sexual), exceto rotulagem ou filtragem de conjuntos de dados biom\u00e9tricos adquiridos legalmente ou quando a aplica\u00e7\u00e3o da lei categoriza dados biom\u00e9tricos.<br \/>\n<strong>Sistemas de IA de alto risco <\/strong><\/p>\n<p>Um outro n\u00edvel de risco, que ocupa boa parte do texto do Regulamento Europeu, aborda sistemas de IA de alto risco, que poder\u00e3o ser desenvolvidos e comercializados caso respeitem as condi\u00e7\u00f5es do regulamento e normas complementares. Grande parte das tecnologias com IA desenvolvidas para uso no campo da sa\u00fade s\u00e3o classificadas como IA de alto risco, e tal op\u00e7\u00e3o regulat\u00f3ria n\u00e3o \u00e9 por acaso. A IA aplicada em sa\u00fade lida diretamente com vida e morte, sa\u00fade e doen\u00e7a, bem-estar e sofrimento.<\/p>\n<p>As regras de classifica\u00e7\u00e3o para sistemas de IA de alto risco est\u00e3o no Art. 6 do Regulamento Europeu. O Anexo III do Regulamento traz exemplos sobre o que s\u00e3o consideradas tecnologias com IA de alto risco.<\/p>\n<p>Merece destaque, para o contexto do Brasil \u2013 que possui o SUS e uma grande parcela da popula\u00e7\u00e3o que depende de benef\u00edcios previdenci\u00e1rios ou de assist\u00eancia social \u2013, a classifica\u00e7\u00e3o como de alto risco para os sistemas de IA que mediam o acesso a servi\u00e7os p\u00fablicos e privados essenciais.<\/p>\n<p>S\u00e3o exemplos desse tipo: sistemas de IA usados \u200b\u200bpor autoridades p\u00fablicas para avaliar a elegibilidade a benef\u00edcios e servi\u00e7os, incluindo sua aloca\u00e7\u00e3o, redu\u00e7\u00e3o, revoga\u00e7\u00e3o ou recupera\u00e7\u00e3o; avalia\u00e7\u00e3o da solv\u00eancia, exceto ao detectar fraude financeira; avalia\u00e7\u00e3o e classifica\u00e7\u00e3o de chamadas de emerg\u00eancia, incluindo prioriza\u00e7\u00e3o de despacho de pol\u00edcia, bombeiros, assist\u00eancia m\u00e9dica e servi\u00e7os de triagem de pacientes urgentes; avalia\u00e7\u00f5es de risco e precifica\u00e7\u00e3o em seguros de sa\u00fade e de vida.<\/p>\n<p>Tamb\u00e9m ser\u00e3o considerados sistemas de IA de alto risco aqueles que criarem perfis de indiv\u00edduos, ou seja, que realizarem o processamento automatizado de dados pessoais para avaliar v\u00e1rios aspectos da vida de uma pessoa, como desempenho no trabalho, situa\u00e7\u00e3o econ\u00f4mica, sa\u00fade, prefer\u00eancias, interesses, confiabilidade, comportamento, localiza\u00e7\u00e3o ou movimento.<\/p>\n<p><strong>Sistemas de IA de risco limitado e de risco m\u00ednimo<\/strong><\/p>\n<p>H\u00e1 ainda uma se\u00e7\u00e3o mais enxuta do Regulamento Europeu que trata dos sistemas de IA de risco limitado. Tecnologias com IA assim classificadas estar\u00e3o sujeitas a um controle e \u00e0 obriga\u00e7\u00f5es de transpar\u00eancia mais leves, sendo que desenvolvedores devem garantir que os usu\u00e1rios finais estejam cientes de que est\u00e3o interagindo com IA (chatbots e deepfakes).<\/p>\n<p>Por fim, h\u00e1 uma parte pequena do texto que trata do risco m\u00ednimo e estabelece um regime de n\u00e3o regula\u00e7\u00e3o. Nesta categoria est\u00e1 inclu\u00edda a maioria dos aplicativos de IA atualmente dispon\u00edveis no mercado \u00fanico da UE, como videogames habilitados e filtros de spam (isso est\u00e1 mudando com IA generativa e alguns destes produtos em breve ter\u00e1 que ser classificado de outra forma).<\/p>\n<p><strong>A maioria das obriga\u00e7\u00f5es impostas pelo Regulamento recai sobre os provedores e\/ou desenvolvedores de sistemas de IA de alto risco<\/strong><\/p>\n<p>O modelo de responsabiliza\u00e7\u00e3o adotado prioriza as obriga\u00e7\u00f5es mais sens\u00edveis associadas ao processo de desenvolvimento e \u00e0 oferta de tecnologias e servi\u00e7os com IA no mercado digital, recaindo sobretudo sobre os desenvolvedores e\/ou nos provedores.<\/p>\n<p>Assim, com o Regulamento, aqueles que pretendem colocar no mercado ou em servi\u00e7o sistemas de IA de alto risco na UE, independentemente de estarem sediados na UE ou em um pa\u00eds terceiro, ser\u00e3o respons\u00e1veis pelos riscos e danos que estas tecnologias causarem a indiv\u00edduos, grupos ou \u00e0 sociedade em geral. O mesmo vale para desenvolvedores e provedores de pa\u00edses terceiros, de onde saem os sistemas de IA de alto risco que s\u00e3o usadas na UE.<\/p>\n<p>Vale lembrar que um provedor de IA \u00e9 uma empresa ou um servi\u00e7o que d\u00e1 ao usu\u00e1rio da tecnologia a capacidade de enviar solicita\u00e7\u00f5es e receber respostas de uma intelig\u00eancia artificial. No momento, os sistemas de IA mais capazes s\u00e3o baseados em arquiteturas Large Language Model (LLM).<\/p>\n<p>Por sua vez, os desenvolvedores s\u00e3o tamb\u00e9m conhecidos como engenheiros de IA ou programadores de IA. S\u00e3o profissionais de software especializados em projetar, construir e implantar sistemas e aplicativos de intelig\u00eancia artificial usando linguagens de programa\u00e7\u00e3o tais como o Python.<strong>\u00a0<\/strong><\/p>\n<p><strong>Os implementadores s\u00e3o aqueles que implantam um sistema de IA em uma capacidade profissional, n\u00e3o os usu\u00e1rios finais afetados<\/strong><\/p>\n<p>No contexto do Regulamento Europeu, um implementador de IA \u00e9 qualquer pessoa f\u00edsica ou jur\u00eddica, autoridade p\u00fablica, ag\u00eancia ou outro organismo que utiliza um sistema de IA sob sua autoridade, excluindo atividades pessoais e n\u00e3o profissionais.<\/p>\n<p>Os implementadores de sistemas de IA de alto risco tamb\u00e9m t\u00eam algumas obriga\u00e7\u00f5es, embora menos do que os provedores e\/ou desenvolvedores. As regras do Regulamento da UE se aplicam tanto aos implementadores localizados na UE e tamb\u00e9m os sediados em pa\u00edses terceiros de onde saem os sistemas de IA que s\u00e3o usados no bloco europeu.<\/p>\n<p>A import\u00e2ncia de se recair algumas responsabilidades sobre os implementadores n\u00e3o \u00e9 desprez\u00edvel, j\u00e1 que s\u00e3o esses quem de fato fazem o uso das tecnologias e podem ou n\u00e3o utiliza-las de formas nocivas aos indiv\u00edduos, a grupos populacionais ou \u00e0 sociedade em geral.<\/p>\n<p><strong>Regulamento prev\u00ea uma regula\u00e7\u00e3o abrangente sobre a IA de prop\u00f3sito geral (GPAI)<\/strong><\/p>\n<p>Todos os provedores de modelos de intelig\u00eancia artificial de prop\u00f3sito geral devem fornecer documenta\u00e7\u00e3o t\u00e9cnica, instru\u00e7\u00f5es de uso, cumprir a legisla\u00e7\u00e3o de prote\u00e7\u00e3o de direitos autorais e publicar um resumo sobre o conte\u00fado usado para treinamento.<\/p>\n<p>Os provedores de modelos GPAI de licen\u00e7a livre e aberta precisam apenas cumprir os direitos autorais e publicar o resumo dos dados de treinamento, a menos que apresentem um risco sist\u00eamico, aberto ou fechado. Nestes casos, os provedores tamb\u00e9m devem conduzir avalia\u00e7\u00f5es de modelos, testes advers\u00e1rios, rastrear e relatar incidentes s\u00e9rios, bem como garantir prote\u00e7\u00f5es de seguran\u00e7a cibern\u00e9tica.<strong>\u00a0<\/strong><\/p>\n<p><strong>Em s\u00edntese: regular IA \u00e9 medida de prote\u00e7\u00e3o de direitos e liberdade econ\u00f4mica deve ter limites <\/strong><\/p>\n<p>Uma an\u00e1lise ponderada e imparcial do Regulamento Europeu nos permite verificar que se trata de uma inova\u00e7\u00e3o legislativa fundamental para que as novas tecnologias digitais venham de fato servir como ferramentas ben\u00e9ficas aos indiv\u00edduos, aos diferentes grupos populacionais e \u00e0 sociedade como um todo.<\/p>\n<p>Se um desenvolvedor ou provedor se mostra incapaz de desenvolver ou oferecer um produto que n\u00e3o viole os direitos fundamentais do ser humano, parece-me evidente que esse desenvolvedor ou provedor n\u00e3o possui um produto apto a ser usado e\/ou comercializado.<\/p>\n<p>Se o seu produto \u00e9 mal\u00e9fico por inten\u00e7\u00e3o ou por incapacidade de fazer coisa melhor, isso \u00e9 indiferente \u00e0 luz da seguran\u00e7a que o Estado deve prover \u00e0 popula\u00e7\u00e3o. Inova\u00e7\u00e3o tecnol\u00f3gica \u00e9 important\u00edssima, mas n\u00e3o pode ser justificativa para afastar o Estado e a sociedade do necess\u00e1rio controle das novas tecnologias que chegam ao mercado.<\/p>\n<p>Condicionar a inova\u00e7\u00e3o e o desenvolvimento econ\u00f4mico a regras que buscam proteger a sa\u00fade, a educa\u00e7\u00e3o, o meio ambiente, a equidade e a n\u00e3o discrimina\u00e7\u00e3o \u00e9 o m\u00ednimo que se espera de um Estado que exista, de fato, para a prote\u00e7\u00e3o dos cidad\u00e3os. Os riscos da IA j\u00e1 est\u00e3o presentes e causando danos, e as l\u00f3gicas do Regulamento Europeu, adaptadas ao Brasil pelo PL 2338, s\u00e3o razo\u00e1veis e devem ser implantadas o quanto antes.<\/p>","protected":false},"excerpt":{"rendered":"<p>Ao longo dos \u00faltimos meses tem sido uma constante nos depararmos com textos cr\u00edticos ao Regulamento Europeu para a Intelig\u00eancia Artificial. As cr\u00edticas, publicadas em jornais, revistas e sites especializados, de autoria de importantes atores do mercado, pol\u00edticos, pesquisadores da \u00e1rea ou comunicadores em geral, martelam os mesmos argumentos para questionar a op\u00e7\u00e3o europeia de [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/9844"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=9844"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/9844\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=9844"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=9844"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=9844"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}