{"id":5858,"date":"2024-02-16T03:44:38","date_gmt":"2024-02-16T06:44:38","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2024\/02\/16\/protecao-de-dados-em-tempos-de-ia-como-garantir-a-conformidade\/"},"modified":"2024-02-16T03:44:38","modified_gmt":"2024-02-16T06:44:38","slug":"protecao-de-dados-em-tempos-de-ia-como-garantir-a-conformidade","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2024\/02\/16\/protecao-de-dados-em-tempos-de-ia-como-garantir-a-conformidade\/","title":{"rendered":"Prote\u00e7\u00e3o de dados em tempos de IA: como garantir a conformidade?"},"content":{"rendered":"<p>Privacidade e prote\u00e7\u00e3o de dados s\u00e3o temas que persistem na sua relev\u00e2ncia nos \u00faltimos 2 anos. De acordo com o <a href=\"https:\/\/iapp.org\/media\/pdf\/resource_center\/IAPP_EY_Annual_Privacy_Governance_Report_2023_Executive_Summary.pdf\">sum\u00e1rio executivo do relat\u00f3rio IAPP-EY Privacy Governance de 2023<\/a>, apesar de o ano ter sido desafiador por conta do cen\u00e1rio econ\u00f4mico global, 33% das organiza\u00e7\u00f5es investiram no crescimento dos seus times de privacidade.<\/p>\n<p>Contudo, o desafio econ\u00f4mico e mercadol\u00f3gico para as \u00e1reas de privacidade aumentou ao longo dos anos por conta da dificuldade na conscientiza\u00e7\u00e3o da essencialidade dessa \u00e1rea. Cada vez mais, espera-se que esse profissional se molde \u00e0s necessidades das organiza\u00e7\u00f5es, o que envolve compreender mais profundamente a import\u00e2ncia da intelig\u00eancia artificial como uma tecnologia que potencializa a base de clientes e otimiza o uso de recursos para trazer estabilidade estrutural.<\/p>\n<p>Segundo o recente relat\u00f3rio \u201c<a href=\"https:\/\/www.cisco.com\/c\/en\/us\/about\/trust-center\/data-privacy-benchmark-study.html\">CISCO 2024 Data Privacy Benchmark Study\u201d<\/a>, apesar dos aparentes esfor\u00e7os das organiza\u00e7\u00f5es para garantir aos consumidores a transpar\u00eancia e a seguran\u00e7a no uso de seus dados quando tratados por aplica\u00e7\u00f5es de intelig\u00eancia artificial (IA), o n\u00edvel de confian\u00e7a dos consumidores permanecem inalterados, ou seja, ainda h\u00e1 ceticismo dos indiv\u00edduos em rela\u00e7\u00e3o \u00e0 ado\u00e7\u00e3o de medidas que assegurem esses pontos. A preocupa\u00e7\u00e3o tamb\u00e9m afeta as organiza\u00e7\u00f5es, que j\u00e1 anteveem poss\u00edveis danos a direitos de propriedade intelectual (69%), a possibilidade de que as informa\u00e7\u00f5es inseridas nas ferramentas possam ser compartilhadas publicamente ou com concorrentes (68%) e at\u00e9 mesmo a responsabilidade pela imprecis\u00e3o ou incorre\u00e7\u00e3o advindas da pr\u00f3pria natureza da tecnologia (68%).<\/p>\n<p>Sob a perspectiva de aplica\u00e7\u00f5es de IA que utilizam dados pessoais, muito se discute sobre a contribui\u00e7\u00e3o das \u00e1reas de privacidade para a conformidade do uso da tecnologia. A resposta n\u00e3o \u00e9 t\u00e3o simples, pois depende de peculiaridades e dos objetivos de cada organiza\u00e7\u00e3o, mas \u00e9 poss\u00edvel tra\u00e7ar um plano de a\u00e7\u00e3o que contemple, de maneira exemplificativa, as seguintes medidas:<\/p>\n<h3>Mapeamento e monitoramento de solu\u00e7\u00f5es de IA<\/h3>\n<p>A import\u00e2ncia de se ter um invent\u00e1rio devidamente documentado de aplica\u00e7\u00f5es de IA desenvolvidas e aplicadas nas organiza\u00e7\u00f5es \u00e9 uma tarefa trabalhosa, mas que gera resultados concretos. A depender do tipo de ferramenta, ser\u00e1 fundamental mapear e catalogar n\u00e3o s\u00f3 as aplica\u00e7\u00f5es em si, mas os servi\u00e7os e propriet\u00e1rios, fontes de dados e n\u00edvel de sensibilidade \u2013 \u00e9 o que recomenda, por exemplo, a OWASP Foundation em sua <a href=\"https:\/\/lnkd.in\/dVTX5hvY\">lista de verifica\u00e7\u00e3o de seguran\u00e7a e governan\u00e7a para modelos de linguagem em grande escala.<\/a><\/p>\n<h3>Mecanismos de transpar\u00eancia<\/h3>\n<p>um princ\u00edpio que foi transportado da legisla\u00e7\u00e3o de prote\u00e7\u00e3o de dados pessoais para os projetos de lei e normativos de IA foi a transpar\u00eancia. Mas vale lembrar que a transpar\u00eancia relativa ao tratamento de dados pessoais diz respeito ao direito que o titular tem de entender e controlar o fluxo dos seus dados pessoais. Enquanto isso, tanto a transpar\u00eancia quanto o funcionamento da IA tem rela\u00e7\u00e3o direta com a ci\u00eancia inequ\u00edvoca de que aquele resultado \u00e9 produzido pela tecnologia, de que maneira isso ocorre e como, em alguma medida, seus dados e direitos inerentes s\u00e3o afetados pelo seu uso. Por exemplo, o controlador deve informar a atividade de transfer\u00eancia ou compartilhamento de dados de sa\u00fade para uma empresa que produzir\u00e1, de forma automatizada, faixas de risco de sa\u00fade nas quais o titular pode ou n\u00e3o ser enquadrado (transpar\u00eancia sobre o fluxo de dados). No entanto, isso \u00e9 diferente de informar quais crit\u00e9rios foram utilizados para estabelecer as m\u00e9tricas, qual a natureza dos dados tratados e o n\u00edvel de relev\u00e2ncia dessas informa\u00e7\u00f5es para categorizar uma pessoa em um determinado grupo.<\/p>\n<h3>Licitude da atividade de tratamento de dados pessoais<\/h3>\n<p>A atribui\u00e7\u00e3o de base legal adequada ao tratamento dos dados pessoais em sistemas de IA \u00e9, al\u00e9m de uma obriga\u00e7\u00e3o legal atrelada aos compromissos trazidos pela LGPD, um desafio do agora. Os times respons\u00e1veis pelo desenvolvimento ou contrata\u00e7\u00e3o dessa tecnologia devem contar com a <em>expertise<\/em> do profissional de prote\u00e7\u00e3o de dados, que ser\u00e1 capaz de adotar uma abordagem de risco para compreender os diversos cen\u00e1rios da aplica\u00e7\u00e3o, de que forma os dados pessoais est\u00e3o sendo utilizados e determinar onde h\u00e1 o tratamento de dados pessoais para eleger as bases legais cab\u00edveis. Essa discuss\u00e3o \u00e9 t\u00e3o importante que a Autoridade Inglesa de Prote\u00e7\u00e3o de Dados (ICO) promove<a href=\"https:\/\/ico.org.uk\/about-the-ico\/ico-and-stakeholder-consultations\/ico-consultation-series-on-generative-ai-and-data-protection\/\"> consulta p\u00fablica sobre a hip\u00f3tese legal mais adequada no tratamento de dados pessoais<\/a> usados em modelos de IA Generativa. No mesmo sentido, <a href=\"https:\/\/www.baden-wuerttemberg.datenschutz.de\/rechtsgrundlagen-datenschutz-ki\/\">um dos estados federados da Alemanha publicou documento com orienta\u00e7\u00f5es sobre as bases legais adequadas para atividades de tratamento que envolvam treinamento de aplica\u00e7\u00f5es de IA<\/a>, de acordo com a GDPR, a lei de prote\u00e7\u00e3o de dados alem\u00e3 e a lei estadual correspondente quando se trata de treinamento em aplica\u00e7\u00f5es de IA.<\/p>\n<h3>Governan\u00e7a integrada<\/h3>\n<p>A governan\u00e7a de IA assume um papel crucial como mitigadora de riscos da tecnologia para o profissional de prote\u00e7\u00e3o de dados. Por meio de um conjunto de princ\u00edpios, pol\u00edticas e pr\u00e1ticas, a governan\u00e7a de IA contribui para minimizar o risco de vi\u00e9s e discrimina\u00e7\u00e3o, garantir a seguran\u00e7a e a prote\u00e7\u00e3o de dados, promover a transpar\u00eancia e a explicabilidade, assegurar a conformidade com a legisla\u00e7\u00e3o e fortalecer a confian\u00e7a dos stakeholders. Ao implementar medidas de mitiga\u00e7\u00e3o de riscos, a governan\u00e7a de IA contribui para o uso respons\u00e1vel da tecnologia, protegendo os direitos dos indiv\u00edduos e garantindo a conformidade com a legisla\u00e7\u00e3o.<\/p>\n<h3>Avalia\u00e7\u00e3o de risco espec\u00edfico \u2013 avalia\u00e7\u00e3o de impacto algor\u00edtmico<\/h3>\n<p>\u00c9 importante destacar que o artigo 20 da LGPD garante aos titulares de dados o direito \u00e0 revis\u00e3o das decis\u00f5es totalmente automatizadas. Al\u00e9m disso, nos termos do \u00a72\u00ba do mesmo artigo, se o controlador dos dados n\u00e3o for capaz de explicar como a decis\u00e3o automatizada foi adotada, a Autoridade Nacional de Prote\u00e7\u00e3o de Dados (<a href=\"https:\/\/www.jota.info\/tudo-sobre\/anpd\">ANPD<\/a>) poder\u00e1 realizar uma auditoria para verificar aspectos discriminat\u00f3rios no tratamento dos dados.<\/p>\n<p>Ou seja, al\u00e9m de mapear e monitorar o funcionamento da tecnologia que est\u00e1 sendo utilizada, documentar uma an\u00e1lise de impacto envolve identificar riscos potenciais aos direitos fundamentais (como vieses discriminat\u00f3rios il\u00edcitos), a avalia\u00e7\u00e3o de probabilidade e impacto desses riscos e as medidas de mitiga\u00e7\u00e3o correspondentes. Existem diversos frameworks que indicam caminhos sustent\u00e1veis e baseados nas melhores pr\u00e1ticas para realizar essa avalia\u00e7\u00e3o, considerando a amplitude de aplica\u00e7\u00f5es da tecnologia e os seus resultados, como a <a href=\"https:\/\/lapin.org.br\/wp-content\/uploads\/2023\/04\/RelatorioAIA.pdf\">Avalia\u00e7\u00e3o de Impacto Algor\u00edtmico para Prote\u00e7\u00e3o dos Direitos Fundamentais elaborado pelo Laborat\u00f3rio de Pol\u00edticas P\u00fablicas e Internet (LAPIN)<\/a>, <a href=\"https:\/\/ecp.nl\/wp-content\/uploads\/2019\/01\/Artificial-Intelligence-Impact-Assessment-English.pdf\">Artificial Intelligence Impact Assessment do ECP|Platform for the Information Society<\/a> (Holanda), <a href=\"https:\/\/www.canada.ca\/en\/government\/system\/digital-government\/digital-government-innovations\/responsible-use-ai\/algorithmic-impact-assessment.html\">Algorithmic Impact Assessment tool<\/a> do Canad\u00e1, entre outros.<\/p>\n<p>\u00c9 certo que o mercado come\u00e7a a amadurecer a sua vis\u00e3o sobre a exist\u00eancia de riscos relevantes no tratamento de dados envolvendo aplica\u00e7\u00f5es de IA. Por essa raz\u00e3o, \u00e9 imprescind\u00edvel que as organiza\u00e7\u00f5es convirjam os modelos de neg\u00f3cio com os planos de a\u00e7\u00e3o a serem estruturados e executados quando se considera essa tecnologia, at\u00e9 para se prepararem para a prov\u00e1vel regula\u00e7\u00e3o do tema nos pr\u00f3ximos meses. Assim, princ\u00edpios ganham concretude e as organiza\u00e7\u00f5es conseguem mobilizar esfor\u00e7os para viabilizar o uso da tecnologia de forma segura e confi\u00e1vel.<\/p>","protected":false},"excerpt":{"rendered":"<p>Privacidade e prote\u00e7\u00e3o de dados s\u00e3o temas que persistem na sua relev\u00e2ncia nos \u00faltimos 2 anos. De acordo com o sum\u00e1rio executivo do relat\u00f3rio IAPP-EY Privacy Governance de 2023, apesar de o ano ter sido desafiador por conta do cen\u00e1rio econ\u00f4mico global, 33% das organiza\u00e7\u00f5es investiram no crescimento dos seus times de privacidade. Contudo, o [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/5858"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=5858"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/5858\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=5858"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=5858"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=5858"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}