IA, plataformas e eleições: uma perspectiva comparada entre o PL 2338 e o AI Act

As inovações no campo da tecnologia da informação têm remodelado profundamente o debate público nos últimos anos, impondo novos desafios à regulação, inclusive no processo eleitoral. O uso da inteligência artificial por plataformas digitais — como as do grupo Meta (Instagram e Facebook), TikTok e X (antigo Twitter) — expandiu o alcance das campanhas eleitorais.

Esses sistemas aprimoraram a personalização e o microtargeting político, transformando a dinâmica eleitoral. Colateralmente, emergem preocupações significativas, como a disseminação de desinformação, a propagação de discursos de ódio e a hiperdigitalização da esfera pública.

Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA

Diante desse cenário, as autoridades ao redor do mundo têm buscado respostas regulatórias. A União Europeia aprovou a Regulação 2024/1689, conhecida como AI Act, e o Senado brasileiro aprovou o PL 2338/2023, conhecido como Marco Legal da Inteligência Artificial, que ainda aguarda análise na Câmara dos Deputados. A partir de uma perspectiva comparada, o presente artigo investiga como Brasil e União Europeia regulam o uso de IA por plataformas digitais em contextos eleitorais, com ênfase na lógica de classificação de risco.

No Brasil, o PL 2338 adota uma abordagem baseada em riscos, atribuindo obrigações conforme o nível de criticidade do sistema. Os agentes regulados envolvem desenvolvedores, aplicadores e distribuidores de IA. O projeto distingue entre risco excessivo (cujo uso é proibido) e alto risco (que impõem obrigações específicas).

Estão proibidos, por exemplo, sistemas que atribuem pontuações a indivíduos com base em seu comportamento social, de armas autônomas, destinados à avaliação da probabilidade de crimes e reincidência, entre outros.

Já os sistemas classificados como de alto risco – devido ao seu potencial impacto aos direitos fundamentais – devem observar exigências como: documentação completa do ciclo de vida do sistema, avaliação de acurácia, robustez e riscos discriminatórios, realização de testes para segurança e confiabilidade, supervisão humana e a mitigação de vieses, além da transparência sobre funcionamento e resultados. Exemplos incluem sistemas de recrutamento, diagnósticos médicos, sistemas de identificação e autenticação biométrica para reconhecimento de emoções.

Uma versão preliminar do PL 2338, divulgada em novembro de 2024, mantinha nesse rol de sistemas de alto risco os “sistemas de curadoria, difusão, recomendação e distribuição automatizada e em larga escala de conteúdo por provedores de aplicação de internet, quando destinados à maximização do tempo de uso e engajamento, e cujo funcionamento possa representar riscos significativos à liberdade de expressão, ao acesso à informação e a outros direitos fundamentais”.

No entanto, esse dispositivo foi posteriormente excluído do texto final aprovado no Senado, indicando uma tendência de afastar as grandes plataformas — e, consequentemente, práticas com impacto sobre o debate público e o processo eleitoral — do escopo das obrigações mais rigorosas previstas para sistemas de alto risco.

Com isso, grandes plataformas ficam isentas de obrigações como avaliação de impacto algorítmico — análise dos efeitos de um sistema de IA sobre os direitos fundamentais, que deve incluir medidas preventivas, mitigadoras e de reversão dos impactos negativos, bem como estratégias para potencializar os impactos positivos.

Na União Europeia, o AI Act — publicado em 12 de julho de 2024 e com vigência plena prevista para 2027 — também se baseia na classificação por risco, com categorias de práticas proibidas, alto risco, risco limitado, mas também classifica de acordo com sua capacidade, distinguindo entre propósito geral ou propósito geral com risco sistêmico[1]. Assim, um sistema de IA pode, por exemplo, ser considerado simultaneamente como de alto risco e de propósito geral com risco sistêmico.

No que se refere às eleições, o Anexo III do AI Act classifica como de alto risco os sistemas de IA destinados a influenciar resultados eleitorais ou o comportamento de eleitores, desde que atinjam diretamente o público. Essa classificação, no entanto, exclui ferramentas voltadas à organização, otimização e estruturação de campanhas políticas do ponto de vista administrativo e logístico.

Além disso, o artigo 6(3) prevê exceções à classificação automática como alto risco, mesmo para sistemas listados no Anexo III. Estão excluídos, por exemplo, usos restritos a tarefas processuais limitadas; ao aperfeiçoamento de decisões humanas já tomadas; à identificação de padrões ou desvios de comportamento decisório, desde que não substituam ou influenciem avaliações humanas prévias sem validação; ou ainda à execução de tarefas preparatórias. Ressalta-se, contudo, que a presença de perfilamento de pessoas físicas mantém a classificação como alto risco — justamente a atividade desenvolvida por grandes plataformas digitais.

A interpretação que o Tribunal de Justiça da União Europeia adotará em relação aos casos ainda é incerta, mas o legislador estabeleceu entendimento difícil de ser burlado: os sistemas de IA que forem criados com o intuito de influenciar o resultado de uma eleição e que realizem o perfilamento de pessoas físicas serão considerados como de alto risco.

Além disso, o segundo esboço do Código de Prática para IAs de propósito geral – escrito por especialistas independentes e cuja versão final deve ser publicada em agosto e servirá como um instrumento de demonstração de compliance ao AI Act pelos desenvolvedores – reconhece como risco sistêmico a manipulação prejudicial e em larga escala, incluindo casos como interferência eleitoral em grande escala e campanhas de manipulação coordenadas, resultando em distorções prejudiciais do discurso público, do conhecimento e do comportamento.

Sistemas classificados como de alto risco estão sujeitos a obrigações rigorosas, como gestão contínua de riscos, uso de dados de qualidade, minimização de vieses, documentação detalhada, transparência, supervisão humana e garantia de segurança e conformidade técnica. Já os modelos de IA de propósito geral com risco sistêmico enfrentam exigências adicionais, como testes adversariais, reporte de incidentes ao AI Office e garantia de segurança cibernética.

A regulamentação europeia evidencia uma preocupação concreta com o impacto da IA em processos democráticos, impondo regras rígidas para mitigar riscos de manipulação e desinformação. No entanto, a resistência das grandes plataformas à regulação, inclusive à proposta do Código de Conduta para IA, reforça a necessidade de monitoramento constante da sociedade civil para garantir que os compromissos assumidos não fiquem apenas no papel.

Enquanto a União Europeia avança com uma regulação abrangente e detalhada sobre o uso da inteligência artificial, inclusive em contextos eleitorais, o Brasil optou, até o momento, por um modelo mais restrito. A exclusão, no texto final aprovado pelo Senado, da previsão que classificava como de alto risco os sistemas algorítmicos de recomendação e curadoria em larga escala sugere uma abordagem mais cautelosa — ou, sob outra leitura, permissiva — em relação às plataformas digitais.

Ainda assim, isso não significa que essas práticas estarão completamente fora do alcance normativo. É possível que o tema venha a ser regulado por outras vias, como decisões judiciais, resoluções administrativas específicas (como as da Justiça Eleitoral) ou por marcos normativos setoriais, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais.

Diante disso, permanece em aberto qual será o grau de responsabilização efetiva das plataformas em relação aos impactos da IA sobre o debate público e o processo democrático. O acompanhamento dos desdobramentos legislativos, judiciais e administrativos será fundamental para compreender os contornos regulatórios que, na prática, se aplicarão ao uso de sistemas de IA em contextos eleitorais no Brasil.

[1] O sistema de IA representará um risco sistêmico quando for de propósito geral e quando demonstrar capacidades de alto impacto, o que, atualmente, presume-se ocorrer quando o volume acumulado de cálculo utilizado no seu treinamento ultrapassa 10 elevado a 25 operações de vírgula flutuante por segundo (FLOPs). A classificação também pode ocorrer com base em critérios técnicos adicionais definidos no Anexo XIII do AI Act, por decisão da Comissão Europeia — seja por iniciativa própria ou a partir de alerta emitido por painel técnico especializado.

Generated by Feedzy