{"id":12465,"date":"2025-07-04T05:00:57","date_gmt":"2025-07-04T08:00:57","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2025\/07\/04\/desafios-para-a-regulacao-da-ia-em-saude-no-brasil\/"},"modified":"2025-07-04T05:00:57","modified_gmt":"2025-07-04T08:00:57","slug":"desafios-para-a-regulacao-da-ia-em-saude-no-brasil","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2025\/07\/04\/desafios-para-a-regulacao-da-ia-em-saude-no-brasil\/","title":{"rendered":"Desafios para a regula\u00e7\u00e3o da IA em sa\u00fade no Brasil"},"content":{"rendered":"<p>A <a href=\"https:\/\/www.jota.info\/tudo-sobre\/inteligencia-artificial\">intelig\u00eancia artificial<\/a> est\u00e1 sendo cada vez mais implantada no setor de sa\u00fade do Brasil, desde algoritmos de diagn\u00f3stico at\u00e9 plataformas de telemedicina. Por exemplo, hospitais do setor p\u00fablico brasileiro est\u00e3o desenvolvendo ferramentas de IA para detec\u00e7\u00e3o precoce de c\u00e2ncer que j\u00e1 rastrearam centenas de milhares de pacientes. Essas inova\u00e7\u00f5es prometem maior efici\u00eancia e resultados, mas tamb\u00e9m levantam implica\u00e7\u00f5es legais e \u00e9ticas significativas.<\/p>\n<p>Os sistemas de IA podem alterar fundamentalmente a tomada de decis\u00f5es cl\u00ednicas, a autonomia do paciente e o tratamento de dados na \u00e1rea da sa\u00fade, desafiando premissas b\u00e1sicas da regula\u00e7\u00e3o do setor. Quest\u00f5es de seguran\u00e7a do paciente, responsabiliza\u00e7\u00e3o por erros, privacidade de dados e vi\u00e9s algor\u00edtmico exigem supervis\u00e3o cuidadosa.<\/p>\n<h3><a href=\"https:\/\/www.jota.info\/produtos\/saude?utm_source=cta-site&amp;utm_medium=site&amp;utm_campaign=campanha_saude_q2&amp;utm_id=cta_texto_saude_q2_2023&amp;utm_term=cta_texto_saude&amp;utm_term=cta_texto_saude_meio_materias\"><span>Com not\u00edcias da Anvisa e da ANS, o <span class=\"jota\">JOTA<\/span> PRO Sa\u00fade entrega previsibilidade e transpar\u00eancia para empresas do setor<\/span><\/a><\/h3>\n<p>Em parceria com o pesquisador Matheus Falc\u00e3o, do Cepedisa\/USP, e a partir de amplo estudo internacional comparado realizado, destacamos um conjunto de desafios que o Brasil precisa enfrentar para desenvolver uma regula\u00e7\u00e3o justa e eficaz para a IA. A regula\u00e7\u00e3o da intelig\u00eancia artificial transcende a simples elabora\u00e7\u00e3o de uma nova lei ou norma jur\u00eddica qualquer, abrangendo um amplo escopo de desafios t\u00e9cnicos e de governan\u00e7a estatal que procurarei sintetizar nesta coluna.<\/p>\n<p>O Brasil representa um caso \u00fanico na Am\u00e9rica Latina. Possui o maior sistema universal de sa\u00fade do mundo \u2013 o Sistema \u00danico de Sa\u00fade (SUS) \u2013 que atende mais de 200 milh\u00f5es de pessoas e garante a sa\u00fade como um direito fundamental na Constitui\u00e7\u00e3o. O Brasil \u00e9, de fato, o \u00fanico pa\u00eds latino-americano com cobertura de sa\u00fade totalmente universalizada. Assim, qualquer IA usada na \u00e1rea da sa\u00fade deve estar alinhada \u00e0 promessa constitucional de assist\u00eancia m\u00e9dica resolutiva, ben\u00e9fica, equitativa e digna.<\/p>\n<p>O Brasil tamb\u00e9m mudou seu cen\u00e1rio jur\u00eddico ao promulgar a Lei Geral de Prote\u00e7\u00e3o de Dados (Lei 13.709\/2018), uma lei abrangente que eleva a privacidade (agora um direito constitucional a partir de 2022) e imp\u00f5e obriga\u00e7\u00f5es sobre o processamento de dados pessoais.<\/p>\n<p>A LGPD concede explicitamente aos indiv\u00edduos o direito a uma explica\u00e7\u00e3o e revis\u00e3o de decis\u00f5es tomadas exclusivamente por processamento automatizado, incluindo IA, que afetem seus interesses. Isso torna a LGPD um ponto de partida para a supervis\u00e3o da IA \u200b\u200bno Brasil.<\/p>\n<p>No entanto, embora esses princ\u00edpios jur\u00eddicos e regulat\u00f3rios maios amplos j\u00e1 existam e estejam, de certa forma, protegidos por leis e regulamentos, ainda h\u00e1 uma lacuna na regula\u00e7\u00e3o espec\u00edfica da IA. A seguir, alguns dos principais desafios que o Brasil enfrenta na regula\u00e7\u00e3o da intelig\u00eancia artificial \u200b\u200bna \u00e1rea da sa\u00fade.<\/p>\n<h3>Falta de legisla\u00e7\u00e3o espec\u00edfica para IA<\/h3>\n<p>Um desafio fundamental \u00e9 a aus\u00eancia de um arcabou\u00e7o legal espec\u00edfico que governe a IA na sa\u00fade. At\u00e9 muito recentemente, o Brasil n\u00e3o possu\u00eda leis espec\u00edficas ou diretrizes vinculativas sobre o uso de IA na \u00e1rea da sa\u00fade. Ao contr\u00e1rio de medicamentos ou dispositivos m\u00e9dicos, que est\u00e3o sujeitos a regulamenta\u00e7\u00f5es detalhadas, o software de IA caiu em uma zona cinzenta.<\/p>\n<p>Leis gerais (como prote\u00e7\u00e3o ao consumidor, c\u00f3digos de \u00e9tica m\u00e9dica e estatutos de prote\u00e7\u00e3o de dados) se aplicam apenas de forma fragmentada. Por exemplo, a LGPD aborda aspectos de privacidade de dados de sistemas automatizados, e o C\u00f3digo Civil e o C\u00f3digo de Defesa do Consumidor podem atribuir responsabilidade ou deveres de seguran\u00e7a do produto, mas n\u00e3o h\u00e1 nenhum estatuto que regule diretamente como os sistemas de IA na \u00e1rea da sa\u00fade devem ser desenvolvidos, validados e monitorados.<\/p>\n<p>As primeiras tentativas de criar um \u201carcabou\u00e7o legal para IA\u201d t\u00eam sido lentas. O PL 2338\/2023, aprovado no Senado, encontra-se em vagarosa e desinteressada tramita\u00e7\u00e3o na C\u00e2mara dos Deputados.<\/p>\n<h3>Lacunas na prote\u00e7\u00e3o de dados e privacidade<\/h3>\n<p>Embora a LGPD brasileira forne\u00e7a uma camada fundamental de regula\u00e7\u00e3o, existem lacunas importantes quando se trata de IA na \u00e1rea da sa\u00fade. Dados de sa\u00fade s\u00e3o classificados como dados pessoais sens\u00edveis pela LGPD, exigindo um alto padr\u00e3o de prote\u00e7\u00e3o.<\/p>\n<p>A LGPD tamb\u00e9m concede aos pacientes (titulares dos dados) direitos como consentimento, acesso e corre\u00e7\u00e3o em rela\u00e7\u00e3o aos seus dados pessoais e, crucialmente, o direito de revisar decis\u00f5es automatizadas que os afetam significativamente. No papel, esse direito \u00e0 explica\u00e7\u00e3o\/revis\u00e3o \u00e9 uma ferramenta poderosa para a responsabiliza\u00e7\u00e3o algor\u00edtmica na sa\u00fade \u2013 por exemplo, um paciente a quem um sistema baseado em IA negou um determinado tratamento pode exigir uma revis\u00e3o humana dessa decis\u00e3o.<\/p>\n<p>Na pr\u00e1tica, contudo, essa prote\u00e7\u00e3o enfrenta limita\u00e7\u00f5es. Muitos algoritmos de IA, especialmente aqueles baseados em aprendizado de m\u00e1quina, operam como \u201ccaixas-pretas\u201d cuja l\u00f3gica de tomada de decis\u00e3o n\u00e3o \u00e9 facilmente interpret\u00e1vel.<\/p>\n<p>H\u00e1 um trade-off inerente \u00e0 IA entre explicabilidade e precis\u00e3o, e os atuais sistemas cl\u00ednicos de IA de alto desempenho frequentemente sacrificam a transpar\u00eancia. Isso significa que, embora a lei exija transpar\u00eancia, fornecer uma explica\u00e7\u00e3o significativa a um paciente sobre o resultado de um modelo complexo pode ser tecnologicamente desafiador. A instrumentaliza\u00e7\u00e3o do princ\u00edpio de transpar\u00eancia da LGPD na IA da sa\u00fade ainda \u00e9 uma quest\u00e3o em aberto.<\/p>\n<h3>Restri\u00e7\u00f5es de capacidade institucional e regulat\u00f3ria<\/h3>\n<p>O Brasil tamb\u00e9m enfrenta desafios institucionais para regular efetivamente a IA no setor da sa\u00fade. Os \u00f3rg\u00e3os reguladores que tradicionalmente supervisionam a sa\u00fade e a tecnologia precisam rapidamente desenvolver capacidade para lidar com os novos riscos da IA.<\/p>\n<p>O principal regulador da sa\u00fade, a Ag\u00eancia Nacional de Vigil\u00e2ncia Sanit\u00e1ria (<a href=\"https:\/\/www.jota.info\/tudo-sobre\/anvisa\">Anvisa<\/a>), tem jurisdi\u00e7\u00e3o sobre dispositivos m\u00e9dicos e medicamentos. Ela deu os primeiros passos para regular software na sa\u00fade \u2013 notadamente, em 2022, a Anvisa emitiu a Resolu\u00e7\u00e3o RDC 657\/2022 para regulamentar o \u201cSoftware como Dispositivo M\u00e9dico\u201d (SaMD) e, mais recentemente, a RDC 751\/2022, que atualiza a estrutura geral para dispositivos m\u00e9dicos, reconhecendo e abordando o SaMD.<\/p>\n<p>Ambas as regras exigem que softwares de sa\u00fade aut\u00f4nomos com fins m\u00e9dicos (por exemplo, um aplicativo de diagn\u00f3stico de IA) passem por aprova\u00e7\u00e3o e certifica\u00e7\u00e3o semelhantes a outros dispositivos m\u00e9dicos. No entanto, a RDC 657\/2022 deixou certos softwares fora de seu escopo, como os chamados aplicativos de \u201cbem-estar\u201d ou de estilo de vida n\u00e3o explicitamente comercializados como dispositivos m\u00e9dicos.<\/p>\n<p>Isso cria uma brecha: aplicativos baseados em IA que podem impactar a sa\u00fade (por exemplo, um aplicativo de smartphone que analisa a frequ\u00eancia card\u00edaca ou o oxig\u00eanio no sangue para fins de condicionamento f\u00edsico) podem escapar da regulamenta\u00e7\u00e3o de dispositivos m\u00e9dicos, posicionando-se como ferramentas gerais de bem-estar. A exclus\u00e3o dessas tecnologias significa que os problemas decorrentes delas n\u00e3o s\u00e3o sistematicamente abordados pela supervis\u00e3o da Anvisa.<\/p>\n<h3><strong>Vi\u00e9s e quest\u00f5es de equidade em sa\u00fade<\/strong><\/h3>\n<p>Sistemas de IA na \u00e1rea da sa\u00fade correm o risco de perpetuar ou at\u00e9 mesmo agravar vieses e iniquidades em sa\u00fade existentes. O Brasil, como uma sociedade altamente diversa com acentuadas disparidades regionais e socioecon\u00f4micas, precisa enfrentar esse desafio diretamente.<\/p>\n<p>Algoritmos de IA aprendem com dados; se os dados de treinamento refletirem vieses (subdiagn\u00f3stico hist\u00f3rico de certos grupos, por exemplo) ou n\u00e3o forem representativos da popula\u00e7\u00e3o brasileira, os resultados da IA \u200b\u200bpodem ser distorcidos. Um exemplo claro \u00e9 a disparidade de desempenho de algumas ferramentas de diagn\u00f3stico em diferentes tons de pele.<\/p>\n<p>Estudos e experi\u00eancias em todo o mundo t\u00eam demonstrado que ox\u00edmetros de pulso e sistemas de IA para dermatologia frequentemente apresentam desempenho menos preciso em pacientes de pele mais escura devido a treinamentos ou design de sensores tendenciosos.<\/p>\n<p>Reguladores e pesquisadores brasileiros observaram esse problema. Em um pa\u00eds onde mais da metade da popula\u00e7\u00e3o se identifica como negra ou parda (IBGE, 2018), tais vieses na IA m\u00e9dica s\u00e3o especialmente preocupantes para a equidade em sa\u00fade. Sem interven\u00e7\u00e3o, a IA poderia sistematicamente subdiagnosticar ou priorizar incorretamente o atendimento a determinados grupos raciais ou \u00e9tnicos, exacerbando as disparidades em vez de reduzi-las.<\/p>\n<p>O vi\u00e9s tamb\u00e9m pode surgir em outras dimens\u00f5es, como status socioecon\u00f4mico, g\u00eanero e geografia. Se um sistema de IA para aloca\u00e7\u00e3o de recursos hospitalares ou previs\u00e3o de risco de doen\u00e7as for treinado predominantemente com dados de sistemas hospitalares urbanos mais ricos nas regi\u00f5es Sul e Sudeste do Brasil, suas recomenda\u00e7\u00f5es podem n\u00e3o se adequar \u00e0 realidade de comunidades mais pobres ou rurais (por exemplo, pode presumir a disponibilidade de certos recursos de acompanhamento que s\u00e3o escassos em certas regi\u00f5es). Isso pode levar a vi\u00e9s contextual, em que os recursos s\u00e3o distribu\u00eddos de forma desigual.<\/p>\n<p>Garantir a equidade algor\u00edtmica na \u00e1rea da sa\u00fade \u00e9, portanto, um grande desafio. Requer n\u00e3o apenas estrat\u00e9gias t\u00e9cnicas de desvi\u00e9s, mas tamb\u00e9m o reconhecimento legal de que resultados tendenciosos s\u00e3o inaceit\u00e1veis.<\/p>\n<p>Atualmente, o arcabou\u00e7o legal brasileiro possui disposi\u00e7\u00f5es gerais antidiscriminat\u00f3rias (a Constitui\u00e7\u00e3o e as leis pro\u00edbem a discrimina\u00e7\u00e3o por ra\u00e7a, g\u00eanero etc.), que presumivelmente se aplicariam caso um sistema de IA seja considerado discriminat\u00f3rio. No entanto, detectar e comprovar a discrimina\u00e7\u00e3o algor\u00edtmica \u00e9 dif\u00edcil sem transpar\u00eancia.<\/p>\n<p>O princ\u00edpio da equidade tem sido destacado em diretrizes internacionais sobre IA em sa\u00fade e tamb\u00e9m faz parte da teoria brasileira sobre direito \u00e0 sa\u00fade. A Organiza\u00e7\u00e3o Mundial da Sa\u00fade (OMS), por exemplo, lista \u201cpromover a inclus\u00e3o social e garantir que os algoritmos n\u00e3o reproduzam preconceitos\u201d como um princ\u00edpio fundamental. Incorporar esse princ\u00edpio \u00e0 regulamenta\u00e7\u00e3o e \u00e0 pr\u00e1tica brasileiras n\u00e3o \u00e9 trivial.<\/p>\n<p>A aus\u00eancia de auditoria ou relat\u00f3rios obrigat\u00f3rios de vi\u00e9s na legisla\u00e7\u00e3o brasileira atual significa que os desenvolvedores n\u00e3o s\u00e3o obrigados a testar ou divulgar vi\u00e9s em modelos de intelig\u00eancia artificial. Consequentemente, h\u00e1 pouco incentivo para abordar essas quest\u00f5es proativamente.<\/p>\n<h3>Considera\u00e7\u00f5es finais<\/h3>\n<p>Os desafios regulat\u00f3rios aqui sintetizados est\u00e3o sendo debatidos no \u00e2mbito do projeto internacional \u201cRegulating AI for the Future\u201d, do qual participo em conjunto com Matheus Falc\u00e3o (Cepedisa\/USP) e um grupo de pesquisadores de diferentes institui\u00e7\u00f5es acad\u00eamicas do Canad\u00e1 e da Europa.<\/p>\n<p>A partir dos debates e das trocas de experi\u00eancias a serem realizadas ao longo do projeto, esperamos poder formular e publicar algumas propostas de solu\u00e7\u00f5es regulat\u00f3rias para a IA em sa\u00fade que poder\u00e3o (ou n\u00e3o) contribuir para o debate global sobre o tema e para o avan\u00e7o da capacidade regulat\u00f3ria do Estado brasileiro frente aos novos desafios \u00e9ticos e humanit\u00e1rios que se colocam frente \u00e0 incorpora\u00e7\u00e3o da intelig\u00eancia artificial no dia a dia do ser humano.<\/p>","protected":false},"excerpt":{"rendered":"<p>A intelig\u00eancia artificial est\u00e1 sendo cada vez mais implantada no setor de sa\u00fade do Brasil, desde algoritmos de diagn\u00f3stico at\u00e9 plataformas de telemedicina. Por exemplo, hospitais do setor p\u00fablico brasileiro est\u00e3o desenvolvendo ferramentas de IA para detec\u00e7\u00e3o precoce de c\u00e2ncer que j\u00e1 rastrearam centenas de milhares de pacientes. Essas inova\u00e7\u00f5es prometem maior efici\u00eancia e resultados, [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/12465"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=12465"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/12465\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=12465"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=12465"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=12465"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}