{"id":3695,"date":"2023-04-18T10:13:06","date_gmt":"2023-04-18T13:13:06","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2023\/04\/18\/inteligencia-artificial-pode-perpetuar-o-racismo-diz-diretora-da-datasphere\/"},"modified":"2023-04-18T10:13:06","modified_gmt":"2023-04-18T13:13:06","slug":"inteligencia-artificial-pode-perpetuar-o-racismo-diz-diretora-da-datasphere","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2023\/04\/18\/inteligencia-artificial-pode-perpetuar-o-racismo-diz-diretora-da-datasphere\/","title":{"rendered":"Intelig\u00eancia artificial pode perpetuar o racismo, diz diretora da DataSphere"},"content":{"rendered":"<p>A <a href=\"https:\/\/www.jota.info\/tudo-sobre\/inteligencia-artificial\">intelig\u00eancia artificial<\/a> pode perpetuar o racismo existente, refor\u00e7ar a opress\u00e3o sist\u00eamica e o sexismo, e prejudicar as comunidades marginalizadas, segundo a diretora do DataSphere, Carol Rossini. A avalia\u00e7\u00e3o foi feita em evento sobre A Constru\u00e7\u00e3o do Marco Regulat\u00f3rio da Intelig\u00eancia Artificial no Brasil, promovido pelo Conselho da Justi\u00e7a Federal nesta segunda-feira (17\/4). Rossini foi uma das palestrantes no debate sobre Discrimina\u00e7\u00e3o Algor\u00edtmica, que foi moderado pelo ministro Ribeiro Dantas, do Superior Tribunal de Justi\u00e7a (<a href=\"https:\/\/www.jota.info\/tudo-sobre\/stj\">STJ<\/a>).<\/p>\n<p>\u201dNos Estados Unidos, estudos comprovam que as comunidades marginalizadas ou menores, como os afro-americanos, componentes de 13% da popula\u00e7\u00e3o do pa\u00eds, s\u00e3o moderados de uma forma muito mais opressiva do que os brancos nos EUA\u201d, disse.<\/p>\n<p>Por isso, ela sup\u00f5e considerar essencial a governan\u00e7a de dados. Al\u00e9m disso, a diretora do DataSphere tamb\u00e9m esclareceu que a IA \u00e9 treinada com base nos dados hist\u00f3ricos, que podem conter preconceitos e estere\u00f3tipos. Segundo ela, se esses dados forem usados para treinar os modelos de intelig\u00eancia artificial, esses modelos podem, de fato, perpetuar o racismo, tomando decis\u00f5es discriminat\u00f3rias.<\/p>\n<p>\u201dEnt\u00e3o, quando a gente pensa em regula\u00e7\u00e3o, \u00e9 preciso pensar no processo inteiro, porque, no final das contas, o resultado \u00e9 simplesmente um espelho desse processo e das camadas que o controlam\u201d, afirmou. Rossini acredita que um dos principais desafios nesse processo \u00e9 o de garantir que os dados de treinamento sejam representativos da popula\u00e7\u00e3o em geral e n\u00e3o contenham preconceitos ou estere\u00f3tipos. Al\u00e9m dos dados, ela considera fundamental que os desenvolvedores tamb\u00e9m sejam representativos da sociedade brasileira em geral.<\/p>\n<p>Al\u00e9m de Rossini, tamb\u00e9m estiveram participaram deste painel Mariana Valente, professora da Universidade de St. Gallen e diretora do InternetLab e membra da CJSUBIA; Nina da Hora, do Centro de Tecnologia e Sociedade da FGV, e Tarc\u00edzio Silva, fellow da Mozilla Foundation.<\/p>\n<h3>Regula\u00e7\u00e3o<\/h3>\n<p>Para Mariana Valente, \u00e9 preciso frisar a discuss\u00e3o sobre discrimina\u00e7\u00e3o algor\u00edtmica no Brasil em um contexto de extrema desigualdade de classe, ra\u00e7a e g\u00eanero, especialmente diante de casos de discrimina\u00e7\u00e3o documentados no pa\u00eds, apesar de os casos no exterior ganharem mais destaque.<\/p>\n<p>\u201dTemos casos de pris\u00f5es injustas a partir do reconhecimento facial, casos de discrimina\u00e7\u00e3o de modera\u00e7\u00e3o de conte\u00fados nas redes sociais, situa\u00e7\u00f5es envolvendo o uso de tecnologias como o <a href=\"https:\/\/www.jota.info\/tudo-sobre\/chatgpt\">ChatGPT<\/a>\u201d, comentou.<\/p>\n<p>Na opini\u00e3o dela, esse \u00e9 um problema do presente em uma sociedade que padece de desigualdades t\u00e3o radicais e que, neste contexto, pensar na regula\u00e7\u00e3o da IA exige mecanismos afetivos para prevenir, mitigar e reparar a discrimina\u00e7\u00e3o algor\u00edtmicas, e que devem ser priorit\u00e1rios na discuss\u00e3o.<\/p>\n<p>\u201dAbordar esse problema n\u00e3o se esgota com um Projeto de Lei de Regulamenta\u00e7\u00e3o de IA que olhe somente para quest\u00f5es de governan\u00e7a, \u00e9 fundamental que existam mecanismos concretos que v\u00e3o para al\u00e9m de princ\u00edpios, dada a gravidade do problema e amea\u00e7a aos direitos\u201d, finalizou.<\/p>\n<p>Nina da Hora, do CTS da FGV, acredita que lidar com ferramentas que n\u00e3o s\u00e3o desenvolvidas no contexto brasileiro faz muita diferen\u00e7a. \u201dN\u00e3o s\u00f3 os resultados s\u00e3o diferentes, como o processo de aprendizagem tamb\u00e9m \u00e9 totalmente diferente. Devemos levar em considera\u00e7\u00e3o que \u00e9 quase ficar muito restrito ao que seria ideal, ao inv\u00e9s de lidarmos, de fato, com a realidade do Brasil\u201d, complementou.<\/p>\n<p>J\u00e1 para Tarc\u00edzio Silva, fellow da Mozilla Foundation, a complexidade da intelig\u00eancia artificial \u00e9 social e multidimensional, mas esse n\u00e3o \u00e9 propriamente o principal motivo para sua regula\u00e7\u00e3o. \u201dPelo contr\u00e1rio, precisamos ver todos os impactos no presente e passado, al\u00e9m dos impactos especulativos\u201d, afirmou.<\/p>\n<p>Segundo ele, a discrimina\u00e7\u00e3o algor\u00edtmica n\u00e3o \u00e9 uma somente uma quest\u00e3o de diversidade em quem desenvolve, mas tamb\u00e9m inclui esta problem\u00e1tica. Sendo assim, Silva acredita que as lacunas de representa\u00e7\u00e3o demogr\u00e1fica devem ser analisadas nos diferentes setores com a participa\u00e7\u00e3o da sociedade civil. \u201dPol\u00edticas afirmativas podem ser utilizadas como t\u00e1tica de fomento do Estado na rela\u00e7\u00e3o com o setor privado e com as universidades, por exemplo\u201d, encerrou.<\/p>","protected":false},"excerpt":{"rendered":"<p>A intelig\u00eancia artificial pode perpetuar o racismo existente, refor\u00e7ar a opress\u00e3o sist\u00eamica e o sexismo, e prejudicar as comunidades marginalizadas, segundo a diretora do DataSphere, Carol Rossini. A avalia\u00e7\u00e3o foi feita em evento sobre A Constru\u00e7\u00e3o do Marco Regulat\u00f3rio da Intelig\u00eancia Artificial no Brasil, promovido pelo Conselho da Justi\u00e7a Federal nesta segunda-feira (17\/4). Rossini foi [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/3695"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=3695"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/3695\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=3695"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=3695"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=3695"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}