Discriminação algorítmica e dados sensíveis

Sem dados, não há diagnóstico. E sem diagnóstico, a discriminação permanece invisível, embora ativa, dentro dos sistemas de inteligência artificial. Detectar e corrigir esses vieses exige tratar justamente os dados sensíveis que a legislação busca proteger. Enquanto a União Europeia já reconhece essa exceção controlada em sua regulação de IA, o Brasil ainda não oferece base legal satisfatória que justifique o tratamento de dados sensíveis para fins de auditoria algorítmica. O resultado é a ausência de um ambiente regulatório adequado que permita a condução dessas iniciativas com segurança jurídica. Nesse vácuo normativo, abrem-se brechas para práticas potencialmente discriminatórias sem controle efetivo.

A experiência europeia oferece referências relevantes. O EU AI Act adota uma abordagem baseada em risco, classificando sistemas de IA conforme o grau de ameaça que representam aos direitos fundamentais dos indivíduos. Para sistemas considerados de alto risco, o regulamento estabelece obrigações rigorosas de transparência, governança e mitigação de vieses. Um de seus dispositivos centrais, o artigo 10(5), autoriza expressamente o tratamento de dados sensíveis quando estritamente necessário para detectar e corrigir discriminações, desde que respeitadas as salvaguardas adequadas.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Essa previsão dialoga diretamente com o artigo 9(2)(g) do GDPR, que autoriza o tratamento de dados sensíveis quando necessário por razões de interesse público substancial, com base no direito da União ou dos Estados-Membros, desde que proporcional ao objetivo perseguido e que respeite a essência do direito à proteção de dados. Trata-se de base legal que viabiliza o tratamento de atributos sensíveis, reconhecendo que enfrentar a discriminação algorítmica requer, ainda que de forma excepcional e controlada, o tratamento justamente dos dados sensíveis que se pretende resguardar.

No Brasil, entretanto, não há base legal equivalente. O artigo 11 da LGPD elenca hipóteses taxativas para o tratamento de dados sensíveis, mas nenhuma delas se adequa satisfatoriamente à finalidade de mitigação de viés algorítmico. O consentimento do titular, previsto no inciso I, é pouco eficaz em contextos como scoring de crédito ou triagem automatizada de currículos, nos quais seria logisticamente inviável obter autorizações individuais, além de juridicamente instável, considerando a possibilidade de revogação a qualquer tempo.

Argumentar que a análise de viés seria necessária para a execução do contrato, prevista no inciso V, ampliaria excessivamente o escopo da norma. Mesmo a hipótese do art. 11, II, b, que permite o tratamento pela administração pública para execução de políticas públicas previstas em lei, não se estende ao setor privado, justamente onde estão concentradas boa parte das principais aplicações de IA com potencial discriminatório.

As demais bases legais do artigo 11 (proteção da vida ou incolumidade física, tutela da saúde, garantia de prevenção à fraude e exercício regular de direitos), igualmente não se aplicam à finalidade em questão. O legítimo interesse, embora previsto no art. 10 para dados pessoais, não é admitido como base legal para o tratamento de dados sensíveis nos termos do art. 11 da LGPD.

Diante desse vácuo normativo, discute-se o uso de alternativas como anonimização ou dados sintéticos. No entanto, ambas apresentam limitações substanciais. A anonimização, ao eliminar a possibilidade de reidentificação, inviabiliza a detecção de padrões de exclusão em grupos específicos. Já os dados sintéticos, embora úteis em cenários experimentais, tendem a falhar na reprodução fiel das interseccionalidades e desigualdades presentes no mundo real.

As consequências dessa lacuna normativa são tangíveis. Algoritmos de crédito, ferramentas de recrutamento e modelos preditivos na saúde, sob o verniz da neutralidade matemática, podem reproduzir ou até aprofundar discriminações. Em todos esses casos, a ausência de uma base legal clara para o uso de dados sensíveis dificulta que injustiças estruturais sejam sequer identificadas, quanto mais corrigidas. Casos amplamente divulgados, como a exclusão de candidatas mulheres por um sistema da Amazon ou o viés racial do algoritmo COMPAS na Justiça criminal dos EUA, ilustram os riscos envolvidos.

Situações como essas evidenciam que o princípio da necessidade, previsto no art. 6º, III, da LGPD, deve ser interpretado à luz da proporcionalidade, em diálogo com outros valores constitucionais, como a igualdade. Combater discriminação exige, por vezes, o uso dos próprios dados sensíveis, desde que com finalidade legítima, limites claros e salvaguardas adequadas. Negar essa possibilidade equivale a perpetuar desigualdades sob a aparência de neutralidade tecnológica.

No cenário brasileiro, duas soluções normativas podem enfrentar esse desafio. A primeira seria incluir, no artigo 11 da LGPD, uma base legal inspirada no artigo 9(2)(g) do GDPR, autorizando o tratamento de dados sensíveis quando necessário por razões de interesse público substancial, desde que proporcional ao objetivo e acompanhado de salvaguardas específicas. Essa hipótese não seria exclusiva para mitigação de viés algorítmico, mas criaria o fundamento jurídico que hoje falta no país para iniciativas legítimas de fairness em IA.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

A segunda alternativa consistiria em utilizar a base do cumprimento de obrigação legal ou regulatória, combinando-a com normas setoriais ou com futura legislação sobre inteligência artificial que imponha, de forma expressa, o dever de monitorar e corrigir vieses em sistemas automatizados. Assim, o tratamento de dados sensíveis passaria a configurar um dever regulatório, à semelhança do modelo europeu do AI Act para sistemas de alto risco.

Seja qual for o caminho, o ponto de partida é claro: não há justiça algorítmica possível sem visibilidade. E visibilidade, nesse contexto, exige um arcabouço jurídico sólido que equilibre proteção de dados e igualdade de tratamento. Sem ele, as promessas de governança algorítmica, transparência e accountability seguirão restritas ao papel — enquanto os sistemas automatizados continuam operando sob padrões históricos de exclusão.

Generated by Feedzy