A falácia da minimização da coleta como entrave para IA menos discriminatória

A ideia de que o aprofundamento da coleta de dados pessoais é necessário para construir uma inteligência artificial supostamente “mais justa” revela um argumento sedutor, porém profundamente problemático. Tal defesa assume como dado que a IA só poderá ser mais ética se for alimentada com volumes cada vez maiores de informações sobre nossas vidas, reproduzindo um mantra acrítico do campo do aprendizado de máquina. Tal perspectiva que toma os dados como matéria-prima extraível e acumulável defende que este seria o motor exclusivo tanto da inovação quanto da equidade.

Entretanto, a redução de tais questões à “falta de diversidade em bancos de dados” é uma forma de tecnodeterminismo, ou tecnosolucionismo conforme bem explicitam autores como Eugeny Morozov e Yannis Varoufakis. Podemos argumentar, assim, que a diversidade significativa não depende da expansão irrestrita, mas de governança responsável, de seleção, de reponderação, de desenho metodológico.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Tal visão das coisas que transforma proteção em entrave desloca a responsabilidade técnica para o corpo social, como se o cidadão, ao exigir seus próprios direitos, criasse, por externalidade negativa, sistemas enviesados.

É supor, ademais, uma espécie de animismo tecnológico, no qual a tecnologia “quer” algo, que demanda ser alimentada, como se fosse uma força inevitável da natureza. Entretanto, a IA não é uma criatura autônoma: é obra de instituições, empresas, governos e seres humanos que fazem escolhas – sobre quem é incluído, quem é excluído, quem é vigiado e quem é o destinatário dos lucros.

Nesse sentido, Urs Gasser e Viktor Mayer-Schönberger bem lembram que “nem todos os vieses podem ser completamente eliminados. Mesmo medidas sofisticadas para eliminar um tipo de viés podem solidificar outro, não apenas porque essas medidas são insuficientes, mas porque as realidades sociais são complexas”.

Assim, o argumento de que “mais dados geram mais justiça” precisa ser examinado com cautela num país profundamente desigual, em que analfabetos funcionais representam assustadores 29% da população adulta, coletar mais dados significa, muitas vezes, aprofundar (já gritantes) assimetrias de poder.

A propósito, Daniel Solove diz que “algoritmos de IA estão longe de serem não enviesados porque são alimentados com dados da sociedade, onde os vieses são abundantes”. De fato, pensando metaforicamente, não é ampliando o espelho que se combate a distorção: afinal, a própria realidade já é distorcida. Em verdade, um “espelhismo do real” cria novas condições de distorção.

Sem negar a importância dos dados pessoais para o desenvolvimento de diversos sistemas de IA, cabe ressaltar que ética e governança adequadas dependem, muito mais, de participação coletiva, da democratização dos espaços deliberativos dos quais surgem as normas orientadoras do desenvolvimento dos mecanismos de IA, da adoção de cautelas e salvaguardas adequadas para se evitar os (há muito) conhecidos riscos decorrentes do enviesamento algorítmico.

Em suma, antes de mais dados, o que a IA responsável precisa é de mais abertura democrática e de processos de inovação que incorporem, cognitivamente, essas perspectivas.

A crença de que “mais dados = menos vieses” é insustentável na teoria e na empiria. Grandes modelos treinados com trilhões de tokens continuam reproduzindo racismos, misoginias, exclusão de povos originários e invisibilizações regionais porque o problema não é “só” ausência de dado, mas métricas e designs, parâmetros, abuso da chamada “função de perda”, problema de alinhamento (allignment problem), etiquetagem preconceituosa nas mecânicas de aprendizado por reforço e tantos outros fatores.

O dadocentrismo propagando por muitos, ao ignorar isso, reencena o velho argumento modernista de que a técnica, se suficientemente abundante, resolverá seus próprios problemas. Há aqui o mesmo modo de operar que Hans Blumenberg, no livro Trabalho sobre o Mito, identifica no mito técnico moderno: uma promessa de completude que, ao não se realizar, culpa tudo aquilo que pôs restrições sobre ela, inclusive o direito. Mas a restrição jurídica não é impeditiva, ela é contrapeso frente a tecnologias que tendem a reduzir o mundo a recurso disponível.

O mantra da inovação é outro ponto que precisa ser questionado. Inovar para quem? Para quê? Em nome de qual projeto de sociedade? Não é possível discutir inovação como valor neutro, dissociado dos interesses econômicos e geopolíticos que orientam a tecnologia.

A promessa de que mais coleta de dados conduzirá a uma IA brasileira “mais competitiva” ou “modelos mais representativos” omite que essa mesma coleta concentra poder nas mãos de poucos, fragiliza direitos fundamentais e produz dependência tecnológica. A inovação não pode funcionar como salvo-conduto para atropelar limites jurídicos, como a proteção de dados pessoais, alçada ao patamar de direito fundamental há menos de quatro anos.

Quando se afirma a necessidade de “interpretar a LGPD para que não não atrapalhe o acesso aos dados pessoais”, expõe-se não uma preocupação com equidade, mas um projeto político de flexibilização e violação de direitos, baseados num marco legal construído justamente para conter excessos, impedir vigilância e mitigar assimetrias de poder. A LGPD é (ou busca ser), em sua essência, um freio democrático contra a lógica extrativista de dados, sobretudo quando aplicada a populações marginalizadas.

O que fazer? Temos outras vias: modelos menos dependentes de dados pessoais, especialmente os chamados small models, governança pública forte, avaliação de impacto algorítmico, participação social nos processos decisórios, limites normativos claros e inegociáveis. Há, sobretudo, a possibilidade (e mesmo a necessidade) de recusar a transformação da vida social em matéria-prima tecnológica como um processo inescapável.

O dadocentrismo propagado com boas intenções contribui para processos epistemicidas na medida em que amplia hegemonias e invisibiliza periferias e, ainda, em externalidades ambientais ao transformar o próprio território – pessoas, comunidades, água, energia – em mera condição de possibilidade para alimentar arquiteturas que não foram desenhadas para esses contextos.

A justiça algorítmica não pode ser tratada como um problema técnico a ser resolvido por engenheiros com datasets maiores. Ela é, também e necessariamente, um problema político e jurídico, exigindo da sociedade considerar quem controla a tecnologia, quem fiscaliza, quem audita, quem lucra, quem é afetado e quem é silenciado.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

A pergunta nunca foi sobre o “quanto podemos coletar?”, mas “que projeto de sociedade estamos autorizando quando decidimos que a solução para injustiças históricas é apenas extrair mais dados do mundo?”. Se há algo que a experiência recente revela, é o erro de cultores acríticos da tecnologia. Não é a minimização da coleta que empobrece a IA, é a modelização da sociedade, tendo a IA como cinzel, que empobrece a estabilidade social e aumenta a violência contra todos.

Uma IA responsável – e, aqui, é preciso pensar de forma normativa mais estrita – não nasce do excesso, mas de uma incidência adequada da regra jurídica para organizar o fenômeno, dar limite e caminho, deixando passar apenas aquilo que interessa à sociedade e que impede que o poder técnico se converta em arbítrio. Se queremos uma IA que sirva ao interesse coletivo, nossa tarefa não é alimentá-la com ainda mais dados, flexibilizando a LGPD.

Generated by Feedzy