No imaginário coletivo, a inteligência artificial costuma ser associada à neutralidade matemática. Algoritmos seriam racionais, objetivos, imunes a preconceitos humanos. Mas a realidade é mais complexa: sistemas de IA aprendem com dados históricos — e dados históricos carregam desigualdades estruturais.
Se a sociedade é desigual, a base de treinamento também será. E quando modelos automatizam decisões, podem escalar vieses com eficiência inédita.
No mês de março, em que se comemora o Dia Internacional da Mulher, é fundamental deslocar o debate: o viés algorítmico não é apenas um problema técnico. É um problema jurídico, regulatório e institucional.
Onde o viés aparece?
Estudos internacionais já demonstraram distorções relevantes em sistemas de recrutamento, concessão de crédito, reconhecimento facial e moderação de conteúdo. Mulheres podem ser sub-representadas em recomendações profissionais, mais expostas a assédio em ambientes digitais ou mal identificadas por sistemas biométricos.
O ponto central é que a IA não cria o preconceito — ela o reproduz e o amplifica.
Isso gera impactos concretos em direitos fundamentais: igualdade, não discriminação, privacidade, acesso ao trabalho e liberdade de expressão.
Nos Estados Unidos, por exemplo, o debate sobre discriminação no mercado de crédito imobiliário é antigo e ganhou nova dimensão com a adoção de sistemas automatizados baseados em inteligência artificial.
Pesquisas recentes mostram que, mesmo com décadas de leis contra a discriminação (Fair Housing Act e outros instrumentos de fair lending), viés e ineficiências persistem em modelos de pontuação de crédito e na concessão de hipotecas, penalizando sistematicamente grupos historicamente desfavorecidos.
Estes vieses surgem porque os algoritmos aprendem de dados que carregam as marcas de práticas excludentes do passado — como acesso desigual ao crédito e à propriedade — e reproduzem essas distorções em escala, especialmente quando não há supervisão humana ou regulação específica para mitigá-los.
Historicamente, mulheres enfrentaram barreiras legais e financeiras para acessar crédito imobiliário (bancos e instituições financeiras frequentemente negavam hipotecas a mulheres solteiras que não tivessem um cossignatário masculino). Assim, quando sistemas de IA são treinados nesses dados, podem conceder menos hipotecas ou oferecer condições menos favoráveis a mulheres, não porque elas sejam um risco financeiro, mas porque os dados refletem um passado de exclusão.
Estudos emergentes em algorithmic fairness indicam que ferramentas de crédito que adotam abordagens “cegas” ao gênero podem reproduzir essas desigualdades, oferecendo menores oportunidades de acesso ao financiamento para mulheres, mesmo quando seu histórico de pagamento é sólido.
IA e o panorama legislativo no Brasil
No Brasil, o combate à discriminação não é uma pauta setorial. Trata-se de mandamento constitucional. O artigo 5º consagra a igualdade formal e material; o artigo 3º estabelece como objetivo da República promover o bem de todos, sem preconceitos de sexo ou quaisquer outras formas de discriminação.
Quando decisões automatizadas produzem efeitos desproporcionais sobre mulheres, estamos diante de uma possível violação a esse núcleo estruturante.
A tecnologia não opera em um vácuo normativo. Muitos desses dispositivos constitucionais são refletidos no Código de Defesa do Consumidor, por exemplo.
Além disso, a Lei Geral de Proteção de Dados (LGPD) oferece instrumentos relevantes. Entre eles, o princípio da não discriminação (art. 6º, IX), que veda o tratamento de dados para fins discriminatórios ilícitos ou abusivos; o direito à revisão de decisões automatizadas (art. 20), que garante ao titular o questionamento de decisões tomadas de forma automática; e os princípios da transparência e da responsabilização (art. 6º, IX e X), que impõem deveres de governança e demonstração de conformidade.
Por sua vez, o debate legislativo brasileiro sobre regulação da IA caminha para consolidar uma abordagem baseada em risco. Assim, sistemas utilizados para seleção de pessoal, concessão de crédito, saúde, educação ou segurança pública devem ser classificados como de alto risco, exigindo: avaliações prévias de impacto algorítmico; documentação técnica sobre bases de dados; testes de robustez e mitigação de vieses, e mecanismos de supervisão humana significativa.
Sem esse arcabouço, a responsabilização se torna reativa — e não preventiva.
Combater o viés da IA também passa por governança interna. Times diversos tendem a identificar riscos que equipes homogêneas não percebem. A inclusão de mulheres em cargos técnicos e decisórios não é apenas uma pauta de equidade — é uma medida de mitigação de risco regulatório.
Compliance algorítmico exige: políticas claras de uso de IA; registro de decisões automatizadas; auditorias periódicas; e canais acessíveis de contestação.
Uma agenda para além do simbólico
No mês da mulher, celebrar conquistas é importante. Mas é igualmente necessário reconhecer novos espaços onde desigualdades podem se reproduzir.
A IA moldará decisões sobre trabalho, crédito, reputação e acesso a oportunidades. Se não houver parâmetros jurídicos claros e mecanismos eficazes de controle, a tecnologia poderá consolidar assimetrias históricas sob o manto da eficiência.
A pergunta não é se algoritmos podem errar. A pergunta é se o sistema jurídico está preparado para exigir correção, transparência e responsabilidade.
Assim, o desafio é claro: garantir que o futuro digital não repita — em código — as desigualdades do passado.