{"id":21111,"date":"2026-03-08T05:26:39","date_gmt":"2026-03-08T08:26:39","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2026\/03\/08\/combater-vies-da-ia-e-uma-agenda-juridica-nao-apenas-tecnologica\/"},"modified":"2026-03-08T05:26:39","modified_gmt":"2026-03-08T08:26:39","slug":"combater-vies-da-ia-e-uma-agenda-juridica-nao-apenas-tecnologica","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2026\/03\/08\/combater-vies-da-ia-e-uma-agenda-juridica-nao-apenas-tecnologica\/","title":{"rendered":"Combater vi\u00e9s da IA \u00e9 uma agenda jur\u00eddica, n\u00e3o apenas tecnol\u00f3gica"},"content":{"rendered":"<p>No imagin\u00e1rio coletivo, a <a href=\"https:\/\/www.jota.info\/tudo-sobre\/inteligencia-artificial\">intelig\u00eancia artificial<\/a> costuma ser associada \u00e0 neutralidade matem\u00e1tica. Algoritmos seriam racionais, objetivos, imunes a preconceitos humanos. Mas a realidade \u00e9 mais complexa: sistemas de IA aprendem com dados hist\u00f3ricos \u2014 e dados hist\u00f3ricos carregam desigualdades estruturais.<\/p>\n<p>Se a sociedade \u00e9 desigual, a base de treinamento tamb\u00e9m ser\u00e1. E quando modelos automatizam decis\u00f5es, podem escalar vieses com efici\u00eancia in\u00e9dita.<\/p>\n<p>No m\u00eas de mar\u00e7o, em que se comemora o Dia Internacional da Mulher, \u00e9 fundamental deslocar o debate: o vi\u00e9s algor\u00edtmico n\u00e3o \u00e9 apenas um problema t\u00e9cnico. \u00c9 um problema jur\u00eddico, regulat\u00f3rio e institucional.<\/p>\n<p class=\"jota-cta\"><a href=\"https:\/\/www.jota.info\/produtos\/poder?utm_source=cta-site&amp;utm_medium=site&amp;utm_campaign=campanha_poder_q2&amp;utm_id=cta_texto_poder_q2_2023&amp;utm_term=cta_texto_poder&amp;utm_term=cta_texto_poder_meio_materias\"><span>Conhe\u00e7a o <span class=\"jota\">JOTA<\/span> PRO Poder, plataforma de monitoramento que oferece transpar\u00eancia e previsibilidade para empresas<\/span><\/a><\/p>\n<p class=\"jota-cta\"><strong>Onde o vi\u00e9s aparece?<\/strong><\/p>\n<p>Estudos internacionais j\u00e1 demonstraram distor\u00e7\u00f5es relevantes em sistemas de recrutamento, concess\u00e3o de cr\u00e9dito, reconhecimento facial e modera\u00e7\u00e3o de conte\u00fado. Mulheres podem ser sub-representadas em recomenda\u00e7\u00f5es profissionais, mais expostas a ass\u00e9dio em ambientes digitais ou mal identificadas por sistemas biom\u00e9tricos.<\/p>\n<p>O ponto central \u00e9 que a IA n\u00e3o cria o preconceito \u2014 ela o reproduz e o amplifica.<\/p>\n<p>Isso gera impactos concretos em direitos fundamentais: igualdade, n\u00e3o discrimina\u00e7\u00e3o, privacidade, acesso ao trabalho e liberdade de express\u00e3o.<\/p>\n<p>Nos Estados Unidos, por exemplo, o debate sobre discrimina\u00e7\u00e3o no mercado de cr\u00e9dito imobili\u00e1rio \u00e9 antigo e ganhou nova dimens\u00e3o com a ado\u00e7\u00e3o de sistemas automatizados baseados em intelig\u00eancia artificial.<\/p>\n<p>Pesquisas recentes mostram que, mesmo com d\u00e9cadas de leis contra a discrimina\u00e7\u00e3o (<em>Fair Housing Act<\/em>\u00a0e outros instrumentos de\u00a0<em>fair lending<\/em>), vi\u00e9s e inefici\u00eancias persistem em modelos de pontua\u00e7\u00e3o de cr\u00e9dito e na concess\u00e3o de hipotecas, penalizando sistematicamente grupos historicamente desfavorecidos.<\/p>\n<p>Estes vieses surgem porque os algoritmos aprendem de dados que carregam as marcas de pr\u00e1ticas excludentes do passado \u2014 como acesso desigual ao cr\u00e9dito e \u00e0 propriedade \u2014 e reproduzem essas distor\u00e7\u00f5es em escala, especialmente quando n\u00e3o h\u00e1 supervis\u00e3o humana ou regula\u00e7\u00e3o espec\u00edfica para mitig\u00e1-los.<\/p>\n<p>Historicamente, mulheres enfrentaram barreiras legais e financeiras para acessar cr\u00e9dito imobili\u00e1rio (bancos e institui\u00e7\u00f5es financeiras frequentemente negavam hipotecas a mulheres solteiras que n\u00e3o tivessem um cossignat\u00e1rio masculino). Assim, quando sistemas de IA s\u00e3o treinados nesses dados, podem conceder menos hipotecas ou oferecer condi\u00e7\u00f5es menos favor\u00e1veis a mulheres, n\u00e3o porque elas sejam um risco financeiro, mas porque os dados refletem um passado de exclus\u00e3o.<\/p>\n<p>Estudos emergentes em <em>algorithmic fairness<\/em>\u00a0indicam que ferramentas de cr\u00e9dito que adotam abordagens \u201ccegas\u201d ao g\u00eanero podem reproduzir essas desigualdades, oferecendo menores oportunidades de acesso ao financiamento para mulheres, mesmo quando seu hist\u00f3rico de pagamento \u00e9 s\u00f3lido.<\/p>\n<p><strong>IA e o panorama legislativo no Brasil<\/strong><\/p>\n<p>No Brasil, o combate \u00e0 discrimina\u00e7\u00e3o n\u00e3o \u00e9 uma pauta setorial. Trata-se de mandamento constitucional. O artigo 5\u00ba consagra a igualdade formal e material; o artigo 3\u00ba estabelece como objetivo da Rep\u00fablica promover o bem de todos, sem preconceitos de sexo ou quaisquer outras formas de discrimina\u00e7\u00e3o.<\/p>\n<p>Quando decis\u00f5es automatizadas produzem efeitos desproporcionais sobre mulheres, estamos diante de uma poss\u00edvel viola\u00e7\u00e3o a esse n\u00facleo estruturante.<\/p>\n<p>A tecnologia n\u00e3o opera em um v\u00e1cuo normativo. Muitos desses dispositivos constitucionais s\u00e3o refletidos no C\u00f3digo de Defesa do Consumidor, por exemplo.<\/p>\n<p>Al\u00e9m disso, a Lei Geral de Prote\u00e7\u00e3o de Dados (<a href=\"https:\/\/www.jota.info\/tudo-sobre\/LGPD\">LGPD<\/a>) oferece instrumentos relevantes. Entre eles, o princ\u00edpio da n\u00e3o discrimina\u00e7\u00e3o (art. 6\u00ba, IX), que veda o tratamento de dados para fins discriminat\u00f3rios il\u00edcitos ou abusivos; o direito \u00e0 revis\u00e3o de decis\u00f5es automatizadas (art. 20), que garante ao titular o questionamento de decis\u00f5es tomadas de forma autom\u00e1tica; e os princ\u00edpios da transpar\u00eancia e da responsabiliza\u00e7\u00e3o (art. 6\u00ba, IX e X), que imp\u00f5em deveres de governan\u00e7a e demonstra\u00e7\u00e3o de conformidade.<\/p>\n<p>Por sua vez, o debate legislativo brasileiro sobre regula\u00e7\u00e3o da IA caminha para consolidar uma abordagem baseada em risco. Assim, sistemas utilizados para sele\u00e7\u00e3o de pessoal, concess\u00e3o de cr\u00e9dito, sa\u00fade, educa\u00e7\u00e3o ou seguran\u00e7a p\u00fablica devem ser classificados como de alto risco, exigindo: avalia\u00e7\u00f5es pr\u00e9vias de impacto algor\u00edtmico; documenta\u00e7\u00e3o t\u00e9cnica sobre bases de dados; testes de robustez e mitiga\u00e7\u00e3o de vieses, e mecanismos de supervis\u00e3o humana significativa.<\/p>\n<p>Sem esse arcabou\u00e7o, a responsabiliza\u00e7\u00e3o se torna reativa \u2014 e n\u00e3o preventiva.<\/p>\n<p>Combater o vi\u00e9s da IA tamb\u00e9m passa por governan\u00e7a interna. Times diversos tendem a identificar riscos que equipes homog\u00eaneas n\u00e3o percebem. A inclus\u00e3o de mulheres em cargos t\u00e9cnicos e decis\u00f3rios n\u00e3o \u00e9 apenas uma pauta de equidade \u2014 \u00e9 uma medida de mitiga\u00e7\u00e3o de risco regulat\u00f3rio.<\/p>\n<p>Compliance algor\u00edtmico exige: pol\u00edticas claras de uso de IA; registro de decis\u00f5es automatizadas; auditorias peri\u00f3dicas; e canais acess\u00edveis de contesta\u00e7\u00e3o.<\/p>\n<p><strong>Uma agenda para al\u00e9m do simb\u00f3lico<\/strong><\/p>\n<p>No m\u00eas da mulher, celebrar conquistas \u00e9 importante. Mas \u00e9 igualmente necess\u00e1rio reconhecer novos espa\u00e7os onde desigualdades podem se reproduzir.<\/p>\n<p>A IA moldar\u00e1 decis\u00f5es sobre trabalho, cr\u00e9dito, reputa\u00e7\u00e3o e acesso a oportunidades. Se n\u00e3o houver par\u00e2metros jur\u00eddicos claros e mecanismos eficazes de controle, a tecnologia poder\u00e1 consolidar assimetrias hist\u00f3ricas sob o manto da efici\u00eancia.<\/p>\n<p class=\"jota-cta\"><a href=\"https:\/\/conteudo.jota.info\/marketing-lp-newsletter-ultimas-noticias?utm_source=jota&amp;utm_medium=lp&amp;utm_campaign=23-09-2024-jota-lp-eleicoes-2024-eleicoes-2024-none-audiencias-none&amp;utm_content=eleicoes-2024&amp;utm_term=none\"><span>Assine gratuitamente a newsletter \u00daltimas Not\u00edcias do <span class=\"jota\">JOTA<\/span> e receba as principais not\u00edcias jur\u00eddicas e pol\u00edticas do dia no seu email<\/span><\/a><\/p>\n<p>A pergunta n\u00e3o \u00e9 se algoritmos podem errar. A pergunta \u00e9 se o sistema jur\u00eddico est\u00e1 preparado para exigir corre\u00e7\u00e3o, transpar\u00eancia e responsabilidade.<\/p>\n<p>Assim, o desafio \u00e9 claro: garantir que o futuro digital n\u00e3o repita \u2014 em c\u00f3digo \u2014 as desigualdades do passado.<\/p>","protected":false},"excerpt":{"rendered":"<p>No imagin\u00e1rio coletivo, a intelig\u00eancia artificial costuma ser associada \u00e0 neutralidade matem\u00e1tica. Algoritmos seriam racionais, objetivos, imunes a preconceitos humanos. Mas a realidade \u00e9 mais complexa: sistemas de IA aprendem com dados hist\u00f3ricos \u2014 e dados hist\u00f3ricos carregam desigualdades estruturais. Se a sociedade \u00e9 desigual, a base de treinamento tamb\u00e9m ser\u00e1. E quando modelos automatizam [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/21111"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=21111"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/21111\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=21111"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=21111"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=21111"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}