{"id":12300,"date":"2025-06-27T11:08:55","date_gmt":"2025-06-27T14:08:55","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2025\/06\/27\/ia-plataformas-e-eleicoes-uma-perspectiva-comparada-entre-o-pl-2338-e-o-ai-act\/"},"modified":"2025-06-27T11:08:55","modified_gmt":"2025-06-27T14:08:55","slug":"ia-plataformas-e-eleicoes-uma-perspectiva-comparada-entre-o-pl-2338-e-o-ai-act","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2025\/06\/27\/ia-plataformas-e-eleicoes-uma-perspectiva-comparada-entre-o-pl-2338-e-o-ai-act\/","title":{"rendered":"IA, plataformas e elei\u00e7\u00f5es: uma perspectiva comparada entre o PL 2338 e o AI Act"},"content":{"rendered":"<p>As inova\u00e7\u00f5es no campo da tecnologia da informa\u00e7\u00e3o t\u00eam remodelado profundamente o debate p\u00fablico nos \u00faltimos anos, impondo novos desafios \u00e0 regula\u00e7\u00e3o, inclusive no processo eleitoral. O uso da <a href=\"https:\/\/www.jota.info\/tudo-sobre\/inteligencia-artificial\">intelig\u00eancia artificial<\/a> por plataformas digitais \u2014 como as do grupo Meta (Instagram e Facebook), TikTok e X (antigo Twitter) \u2014 expandiu o alcance das campanhas eleitorais.<\/p>\n<p><a href=\"https:\/\/unesdoc.unesco.org\/ark:\/48223\/pf0000382102\">Esses sistemas aprimoraram a personaliza\u00e7\u00e3o e o <em>microtargeting<\/em> pol\u00edtico, transformando a din\u00e2mica eleitoral<\/a>. Colateralmente, emergem preocupa\u00e7\u00f5es significativas, como a dissemina\u00e7\u00e3o de desinforma\u00e7\u00e3o, a propaga\u00e7\u00e3o de discursos de \u00f3dio e a hiperdigitaliza\u00e7\u00e3o da esfera p\u00fablica.<\/p>\n<h3><a href=\"https:\/\/conteudo.jota.info\/marketing-lp-newsletter-jota-principal-lancamento\" target=\"_blank\" rel=\"noopener\">Informa\u00e7\u00f5es direto ao ponto sobre o que realmente importa: assine gratuitamente a <span class=\"jota\">JOTA<\/span> Principal, a nova newsletter do <span class=\"jota\">JOTA<\/span><\/a><\/h3>\n<p>Diante desse cen\u00e1rio, as autoridades ao redor do mundo t\u00eam buscado respostas regulat\u00f3rias. A Uni\u00e3o Europeia aprovou a Regula\u00e7\u00e3o 2024\/1689, conhecida como AI Act, e <a href=\"https:\/\/www12.senado.leg.br\/noticias\/materias\/2024\/12\/10\/senado-aprova-regulamentacao-da-inteligencia-artificial-texto-vai-a-camara\">o Senado brasileiro <\/a><a href=\"https:\/\/www12.senado.leg.br\/noticias\/materias\/2024\/12\/10\/senado-aprova-regulamentacao-da-inteligencia-artificial-texto-vai-a-camara\">aprovou<\/a><a href=\"https:\/\/www12.senado.leg.br\/noticias\/materias\/2024\/12\/10\/senado-aprova-regulamentacao-da-inteligencia-artificial-texto-vai-a-camara\"> o PL 2338\/2023<\/a>, conhecido como Marco Legal da Intelig\u00eancia Artificial, que ainda aguarda an\u00e1lise na C\u00e2mara dos Deputados. A partir de uma perspectiva comparada, o presente artigo investiga como Brasil e Uni\u00e3o Europeia regulam o uso de IA por plataformas digitais em contextos eleitorais, com \u00eanfase na l\u00f3gica de classifica\u00e7\u00e3o de risco.<\/p>\n<p>No Brasil, o PL 2338 adota uma abordagem baseada em riscos, atribuindo obriga\u00e7\u00f5es conforme o n\u00edvel de criticidade do sistema. Os agentes regulados envolvem desenvolvedores, aplicadores e distribuidores de IA. O projeto distingue entre risco excessivo (cujo uso \u00e9 proibido) e alto risco (que imp\u00f5em obriga\u00e7\u00f5es espec\u00edficas).<\/p>\n<p>Est\u00e3o proibidos, por exemplo, sistemas que atribuem pontua\u00e7\u00f5es a indiv\u00edduos com base em seu comportamento social, de armas aut\u00f4nomas, destinados \u00e0 avalia\u00e7\u00e3o da probabilidade de crimes e reincid\u00eancia, entre outros.<\/p>\n<p>J\u00e1 os sistemas classificados como de alto risco \u2013 devido ao seu potencial impacto aos direitos fundamentais \u2013 devem observar exig\u00eancias como: documenta\u00e7\u00e3o completa do ciclo de vida do sistema, avalia\u00e7\u00e3o de acur\u00e1cia, robustez e riscos discriminat\u00f3rios, realiza\u00e7\u00e3o de testes para seguran\u00e7a e confiabilidade, supervis\u00e3o humana e a mitiga\u00e7\u00e3o de vieses, al\u00e9m da transpar\u00eancia sobre funcionamento e resultados. Exemplos incluem sistemas de recrutamento, diagn\u00f3sticos m\u00e9dicos, sistemas de identifica\u00e7\u00e3o e autentica\u00e7\u00e3o biom\u00e9trica para reconhecimento de emo\u00e7\u00f5es.<\/p>\n<p>Uma vers\u00e3o preliminar do PL 2338, divulgada em novembro de 2024, mantinha nesse rol de sistemas de alto risco os \u201csistemas de curadoria, difus\u00e3o, recomenda\u00e7\u00e3o e distribui\u00e7\u00e3o automatizada e em larga escala de conte\u00fado por provedores de aplica\u00e7\u00e3o de internet, quando destinados \u00e0 maximiza\u00e7\u00e3o do tempo de uso e engajamento, e cujo funcionamento possa representar riscos significativos \u00e0 liberdade de express\u00e3o, ao acesso \u00e0 informa\u00e7\u00e3o e a outros direitos fundamentais\u201d.<\/p>\n<p>No entanto, esse dispositivo foi posteriormente exclu\u00eddo do texto final aprovado no Senado, indicando uma tend\u00eancia de afastar as grandes plataformas \u2014 e, consequentemente, pr\u00e1ticas com impacto sobre o debate p\u00fablico e o processo eleitoral \u2014 do escopo das obriga\u00e7\u00f5es mais rigorosas previstas para sistemas de alto risco.<\/p>\n<p>Com isso, grandes plataformas ficam isentas de obriga\u00e7\u00f5es como avalia\u00e7\u00e3o de impacto algor\u00edtmico \u2014 an\u00e1lise dos efeitos de um sistema de IA sobre os direitos fundamentais, que deve incluir medidas preventivas, mitigadoras e de revers\u00e3o dos impactos negativos, bem como estrat\u00e9gias para potencializar os impactos positivos.<\/p>\n<p>Na Uni\u00e3o Europeia, o AI Act \u2014 <a href=\"https:\/\/eur-lex.europa.eu\/oj\/daily-view\/L-series\/default.html?&amp;ojDate=12072024\">publicado<\/a> em 12 de julho de 2024 e com <a href=\"https:\/\/artificialintelligenceact.eu\/implementation-timeline\/\">vig<\/a><a href=\"https:\/\/artificialintelligenceact.eu\/implementation-timeline\/\">\u00eancia plena<\/a> prevista para 2027 \u2014 tamb\u00e9m se baseia na classifica\u00e7\u00e3o por risco, com categorias de pr\u00e1ticas proibidas, alto risco, risco limitado, mas tamb\u00e9m classifica de acordo com sua capacidade, distinguindo entre prop\u00f3sito geral ou prop\u00f3sito geral com risco sist\u00eamico<a href=\"https:\/\/www.jota.info\/#_ftn1\">[1]<\/a>. Assim, um sistema de IA pode, por exemplo, ser considerado simultaneamente como de alto risco e de prop\u00f3sito geral com risco sist\u00eamico.<\/p>\n<p>No que se refere \u00e0s elei\u00e7\u00f5es, o Anexo III do AI Act classifica como de alto risco os sistemas de IA destinados a influenciar resultados eleitorais ou o comportamento de eleitores, desde que atinjam diretamente o p\u00fablico. Essa classifica\u00e7\u00e3o, no entanto, exclui ferramentas voltadas \u00e0 organiza\u00e7\u00e3o, otimiza\u00e7\u00e3o e estrutura\u00e7\u00e3o de campanhas pol\u00edticas do ponto de vista administrativo e log\u00edstico.<\/p>\n<p>Al\u00e9m disso, o artigo 6(3) prev\u00ea exce\u00e7\u00f5es \u00e0 classifica\u00e7\u00e3o autom\u00e1tica como alto risco, mesmo para sistemas listados no Anexo III. Est\u00e3o exclu\u00eddos, por exemplo, usos restritos a tarefas processuais limitadas; ao aperfei\u00e7oamento de decis\u00f5es humanas j\u00e1 tomadas; \u00e0 identifica\u00e7\u00e3o de padr\u00f5es ou desvios de comportamento decis\u00f3rio, desde que n\u00e3o substituam ou influenciem avalia\u00e7\u00f5es humanas pr\u00e9vias sem valida\u00e7\u00e3o; ou ainda \u00e0 execu\u00e7\u00e3o de tarefas preparat\u00f3rias. Ressalta-se, contudo, que a presen\u00e7a de perfilamento de pessoas f\u00edsicas mant\u00e9m a classifica\u00e7\u00e3o como alto risco \u2014 justamente a atividade desenvolvida por grandes plataformas digitais.<\/p>\n<p>A interpreta\u00e7\u00e3o que o Tribunal de Justi\u00e7a da Uni\u00e3o Europeia adotar\u00e1 em rela\u00e7\u00e3o aos casos ainda \u00e9 incerta, mas o legislador estabeleceu entendimento dif\u00edcil de ser burlado: os sistemas de IA que forem criados com o intuito de influenciar o resultado de uma elei\u00e7\u00e3o e que realizem o perfilamento de pessoas f\u00edsicas ser\u00e3o considerados como de alto risco.<\/p>\n<p>Al\u00e9m disso, o <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/second-draft-general-purpose-ai-code-practice-published-written-independent-experts\">segundo esbo\u00e7o do C\u00f3digo de Pr\u00e1tica para IAs de prop\u00f3sito geral<\/a> \u2013 escrito por especialistas independentes e cuja vers\u00e3o final deve ser <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/policies\/ai-code-practice\">publicada em agosto<\/a> e servir\u00e1 como um instrumento de demonstra\u00e7\u00e3o de compliance ao AI Act pelos desenvolvedores \u2013 reconhece como risco sist\u00eamico a manipula\u00e7\u00e3o prejudicial e em larga escala, incluindo casos como interfer\u00eancia eleitoral em grande escala e campanhas de manipula\u00e7\u00e3o coordenadas, resultando em distor\u00e7\u00f5es prejudiciais do discurso p\u00fablico, do conhecimento e do comportamento.<\/p>\n<p>Sistemas classificados como de alto risco est\u00e3o sujeitos a obriga\u00e7\u00f5es rigorosas, como gest\u00e3o cont\u00ednua de riscos, uso de dados de qualidade, minimiza\u00e7\u00e3o de vieses, documenta\u00e7\u00e3o detalhada, transpar\u00eancia, supervis\u00e3o humana e garantia de seguran\u00e7a e conformidade t\u00e9cnica. J\u00e1 os modelos de IA de prop\u00f3sito geral com risco sist\u00eamico enfrentam exig\u00eancias adicionais, como testes adversariais, reporte de incidentes ao AI Office e garantia de seguran\u00e7a cibern\u00e9tica.<\/p>\n<p>A regulamenta\u00e7\u00e3o europeia evidencia uma preocupa\u00e7\u00e3o concreta com o impacto da IA em processos democr\u00e1ticos, impondo regras r\u00edgidas para mitigar riscos de manipula\u00e7\u00e3o e desinforma\u00e7\u00e3o. No entanto, a <a href=\"https:\/\/www.cnbc.com\/2025\/02\/21\/google-meta-execs-blast-europe-over-strict-ai-regulation.html\">resist\u00eancia das grandes plataformas \u00e0 regula\u00e7\u00e3o, inclusive \u00e0 proposta do C\u00f3digo de Conduta para IA<\/a>, refor\u00e7a a necessidade de monitoramento constante da sociedade civil para garantir que os compromissos assumidos n\u00e3o fiquem apenas no papel.<\/p>\n<p>Enquanto a Uni\u00e3o Europeia avan\u00e7a com uma regula\u00e7\u00e3o abrangente e detalhada sobre o uso da intelig\u00eancia artificial, inclusive em contextos eleitorais, o Brasil optou, at\u00e9 o momento, por um modelo mais restrito. A exclus\u00e3o, no texto final aprovado pelo Senado, da previs\u00e3o que classificava como de alto risco os sistemas algor\u00edtmicos de recomenda\u00e7\u00e3o e curadoria em larga escala sugere uma abordagem mais cautelosa \u2014 ou, sob outra leitura, permissiva \u2014 em rela\u00e7\u00e3o \u00e0s plataformas digitais.<\/p>\n<p><a href=\"https:\/\/www.conjur.com.br\/2024-dez-13\/repercute-algoritmo-das-big-techs-fora-da-lista-de-ias-de-alto-risco-nao-impede-controle\/\">Ainda assim, isso n\u00e3o significa que essas pr\u00e1ticas estar\u00e3o completamente fora do alcance normativo<\/a>. \u00c9 poss\u00edvel que o tema venha a ser regulado por outras vias, como decis\u00f5es judiciais, resolu\u00e7\u00f5es administrativas espec\u00edficas (como as da Justi\u00e7a Eleitoral) ou por marcos normativos setoriais, como o <a href=\"https:\/\/www.jota.info\/tudo-sobre\/marco-civil-internet\">Marco Civil da Internet<\/a> e a <a href=\"https:\/\/www.jota.info\/tudo-sobre\/LGPD\">Lei Geral de Prote\u00e7\u00e3o de Dados Pessoais<\/a>.<\/p>\n<p>Diante disso, permanece em aberto qual ser\u00e1 o grau de responsabiliza\u00e7\u00e3o efetiva das plataformas em rela\u00e7\u00e3o aos impactos da IA sobre o debate p\u00fablico e o processo democr\u00e1tico. O acompanhamento dos desdobramentos legislativos, judiciais e administrativos ser\u00e1 fundamental para compreender os contornos regulat\u00f3rios que, na pr\u00e1tica, se aplicar\u00e3o ao uso de sistemas de IA em contextos eleitorais no Brasil.<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref1\">[1]<\/a> O sistema de IA representar\u00e1 um risco sist\u00eamico quando for de prop\u00f3sito geral e quando demonstrar capacidades de alto impacto, o que, atualmente, presume-se ocorrer quando o volume acumulado de c\u00e1lculo utilizado no seu treinamento ultrapassa 10 elevado a 25 opera\u00e7\u00f5es de v\u00edrgula flutuante por segundo (FLOPs). A classifica\u00e7\u00e3o tamb\u00e9m pode ocorrer com base em crit\u00e9rios t\u00e9cnicos adicionais definidos no Anexo XIII do AI Act, por decis\u00e3o da Comiss\u00e3o Europeia \u2014 seja por iniciativa pr\u00f3pria ou a partir de alerta emitido por painel t\u00e9cnico especializado.<\/p>","protected":false},"excerpt":{"rendered":"<p>As inova\u00e7\u00f5es no campo da tecnologia da informa\u00e7\u00e3o t\u00eam remodelado profundamente o debate p\u00fablico nos \u00faltimos anos, impondo novos desafios \u00e0 regula\u00e7\u00e3o, inclusive no processo eleitoral. O uso da intelig\u00eancia artificial por plataformas digitais \u2014 como as do grupo Meta (Instagram e Facebook), TikTok e X (antigo Twitter) \u2014 expandiu o alcance das campanhas eleitorais. [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/12300"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=12300"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/12300\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=12300"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=12300"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=12300"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}