{"id":21108,"date":"2026-03-07T05:59:03","date_gmt":"2026-03-07T08:59:03","guid":{"rendered":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2026\/03\/07\/vigilancia-algoritmica-e-estado-de-policia-a-fronteira-entre-seguranca-e-abuso\/"},"modified":"2026-03-07T05:59:03","modified_gmt":"2026-03-07T08:59:03","slug":"vigilancia-algoritmica-e-estado-de-policia-a-fronteira-entre-seguranca-e-abuso","status":"publish","type":"post","link":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/2026\/03\/07\/vigilancia-algoritmica-e-estado-de-policia-a-fronteira-entre-seguranca-e-abuso\/","title":{"rendered":"Vigil\u00e2ncia algor\u00edtmica e estado de pol\u00edcia: a fronteira entre seguran\u00e7a e abuso"},"content":{"rendered":"<p>O Brasil entrou na era da vigil\u00e2ncia algor\u00edtmica.<\/p>\n<p>O Estado do Rio de Janeiro anunciou em janeiro o lan\u00e7amento do programa Sentinela<a href=\"https:\/\/www.jota.info\/#_ftn1\">[1]<\/a>, o maior programa de tecnologia aplicada \u00e0 seguran\u00e7a p\u00fablica da Am\u00e9rica Latina, prevendo, dentre outras medidas, a instala\u00e7\u00e3o de 200 mil c\u00e2meras com tecnologia de reconhecimento facial, al\u00e9m de leitura automatizada de placas de ve\u00edculos e an\u00e1lise inteligente e tecnol\u00f3gica de imagens.<\/p>\n<p class=\"jota-cta\"><a href=\"https:\/\/www.jota.info\/produtos\/poder?utm_source=cta-site&amp;utm_medium=site&amp;utm_campaign=campanha_poder_q2&amp;utm_id=cta_texto_poder_q2_2023&amp;utm_term=cta_texto_poder&amp;utm_term=cta_texto_poder_meio_materias\"><span>Conhe\u00e7a o <span class=\"jota\">JOTA<\/span> PRO Poder, plataforma de monitoramento que oferece transpar\u00eancia e previsibilidade para empresas<\/span><\/a><\/p>\n<p>Sistemas de reconhecimento facial j\u00e1 s\u00e3o utilizados por agentes de seguran\u00e7a p\u00fablica em est\u00e1dios, aeroportos, esta\u00e7\u00f5es de transporte e grandes eventos.<\/p>\n<p>A promessa \u00e9 que essa tecnologia traria mais efici\u00eancia, menos erro humano, e combate r\u00e1pido \u00e0 criminalidade.<\/p>\n<p>Diante desse cen\u00e1rio, uma quest\u00e3o inevit\u00e1vel surge: qual o limite do Estado no uso dessas ferramentas?<\/p>\n<h2><strong>A corrente europeia da regulamenta\u00e7\u00e3o de IAs<\/strong><\/h2>\n<p>Considerando a atualidade e a elevada relev\u00e2ncia do tema, muitos pa\u00edses encontram-se em processo de elabora\u00e7\u00e3o de marcos regulat\u00f3rios sobre intelig\u00eancia artificial e reconhecimento facial, seja por meio de projetos legislativos, seja por Medida Provis\u00f3ria ou instrumento regulat\u00f3rio equivalente.<\/p>\n<p>Nesse sentido, a Uni\u00e3o Europeia tem se destacado como uma das pioneiras na discuss\u00e3o e na cria\u00e7\u00e3o de normas claras voltadas a regular o desenvolvimento e o uso da intelig\u00eancia artificial, incluindo tecnologias de reconhecimento facial.<\/p>\n<p>Em julho de 2023 a Corte Europ\u00e9ia de Direitos Humanos julgou o caso <em>Glukhin v. Russia<\/em><a href=\"https:\/\/www.jota.info\/#_ftn2\">[2]<\/a><em>, <\/em>considerada um marco importante no debate dos limites jur\u00eddicos e do controle de legalidade das tecnologias de reconhecimento facial<a href=\"https:\/\/www.jota.info\/#_ftn3\">[3]<\/a>.<\/p>\n<p>No caso, o jornalista e ativista Nikolay Gluhkin realizou sozinho, em 2019, um protesto pac\u00edfico no metr\u00f4 de Moscou, com um cartaz de outro ativista que havia sido preso.<\/p>\n<p>Pouco ap\u00f3s o protesto, as autoridades russas identificaram Gluhkin atrav\u00e9s de um sistema de reconhecimento facial integrado entre milhares de c\u00e2meras de seguran\u00e7a da capital russa, condenando-o pelo il\u00edcito administrativo de realizar um protesto sem autoriza\u00e7\u00e3o oficial.<\/p>\n<p>No julgamento, a Corte Europeia caracterizou o reconhecimento facial como uma forma de vigil\u00e2ncia \u201c<em>altamente intrusiva<\/em>\u201d<a href=\"https:\/\/www.jota.info\/#_ftn4\">[4]<\/a>. Diferente dos m\u00e9todos tradicionais de policiamento, essa tecnologia envolve a coleta e tratamento de dados biom\u00e9tricos sens\u00edveis, criando a possibilidade de monitoramento cont\u00ednuo de indiv\u00edduos em espa\u00e7os p\u00fablicos.<\/p>\n<p>Essa capacidade, desenvolveu a Corte, exigiria uma base legal clara, com par\u00e2metros de controle de legalidade e fundamenta\u00e7\u00e3o da urg\u00eancia. Sob esse entendimento, a Corte concluiu que a interfer\u00eancia realizada pela R\u00fassia nos direitos do ativista foi desproporcional, enfatizando que a efici\u00eancia, por si s\u00f3, n\u00e3o pode justificar intrus\u00f5es em direitos fundamentais quando presentes alternativas menos severas.<\/p>\n<p>Em resposta ao avan\u00e7o dessas tecnologias, a Uni\u00e3o Europeia aprovou, em 2024, o <em>Artificial Intelligence Act<\/em>, considerado um dos primeiros marcos regulat\u00f3rios abrangentes dedicados \u00e0 regula\u00e7\u00e3o da intelig\u00eancia artificial.<\/p>\n<p>A legisla\u00e7\u00e3o adota uma abordagem baseada em quatro diferentes categorias de risco \u2013 m\u00ednimo, limitado, alto e inaceit\u00e1vel \u2013 classificando os sistemas de IA conforme o seu potencial impacto sobre direitos fundamentais.<\/p>\n<p>A partir dessa classifica\u00e7\u00e3o, o regulamento estabelece diferentes n\u00edveis de exig\u00eancias regulat\u00f3rias: sistemas de menor risco ficam sujeitos a obriga\u00e7\u00f5es mais leves, enquanto as consideradas de \u201calto risco\u201d devem cumprir requisitos rigorosos de transpar\u00eancia, supervis\u00e3o humana e auditorias t\u00e9cnicas. J\u00e1 os sistemas classificados como de \u201crisco inaceit\u00e1vel\u201d s\u00e3o expressamente banidos pelo regulamento.<\/p>\n<p>Para essa legisla\u00e7\u00e3o, o reconhecimento facial remoto por autoridades de seguran\u00e7a p\u00fablica<em>, <\/em>em espa\u00e7os acess\u00edveis ao p\u00fablico, \u00e9 banido, em regra, por ser considerado de \u201crisco inaceit\u00e1vel\u201d. O regulamento admite exce\u00e7\u00f5es em hip\u00f3teses estritas, como quando a medida for \u201c<em>necess\u00e1ria para a busca de pessoas desaparecidas ou para a preven\u00e7\u00e3o de amea\u00e7as espec\u00edficas, nomeadamente ataques terroristas<\/em>\u201d.<\/p>\n<h2><strong>A aus\u00eancia de regulamenta\u00e7\u00e3o no Brasil<\/strong><\/h2>\n<p>Atualmente, em que pese a Constitui\u00e7\u00e3o Federal estabelecer garantias individuais, como a prote\u00e7\u00e3o \u00e0 privacidade, \u00e0 imagem e a presun\u00e7\u00e3o de inoc\u00eancia, no Brasil ainda n\u00e3o h\u00e1 um marco legal federal regulamentando especificamente o uso de intelig\u00eancia artificial, nem estabelecendo limites para o uso de reconhecimento facial em mat\u00e9ria de seguran\u00e7a p\u00fablica.<\/p>\n<p>Existem normas que tangenciam o tema. Um exemplo \u00e9 a Lei Geral de Prote\u00e7\u00e3o de Dados (<a href=\"https:\/\/www.gov.br\/conarq\/pt-br\/legislacao-arquivistica\/leis-e-decretos-leis\/lei-no-13-853-de-8-de-julho-de-2019#:~:text=Altera%20a%20Lei%20n%C2%BA%2013.709,Dados%3B%20e%20d%C3%A1%20outras%20provid%C3%AAncias.\">Lei 13.853\/2019<\/a>) que define dados biom\u00e9tricos \u2013 dentre os quais se incluem os dados faciais \u2013 como dados pessoais sens\u00edveis (art. 5\u00ba, II), mais rigorosamente protegidos pela lei.<\/p>\n<p>A pr\u00f3pria LGPD, entretanto, admite exce\u00e7\u00f5es a essa prote\u00e7\u00e3o, como a prevista no art. 11\u00ba, II, <em>b<\/em>, permitindo \u00e0 administra\u00e7\u00e3o p\u00fablica a utiliza\u00e7\u00e3o desses dados quando <em>\u201cnecess\u00e1rios \u00e0 execu\u00e7\u00e3o de pol\u00edticas p\u00fablicas\u201d, <\/em>hip\u00f3tese que legalmente justifica a utiliza\u00e7\u00e3o de dados biom\u00e9tricos faciais por autoridades policiais.<\/p>\n<p>Tramita atualmente na C\u00e2mara dos Deputados o <a href=\"https:\/\/www25.senado.leg.br\/web\/atividade\/materias\/-\/materia\/157233\">projeto de lei 2338\/2023<\/a><a href=\"https:\/\/www.jota.info\/#_ftn5\">[5]<\/a>, o chamado \u201cPL da Intelig\u00eancia Artificial\u201d, que, no mesmo modelo europeu, prev\u00ea categorias de risco aos sistemas de AI \u2013 mas que, no presente momento legislativo do projeto de lei, adota uma postura mais branda quanto ao uso de reconhecimento facial por autoridades policiais.<\/p>\n<p>Este PL admite o uso de sistemas de identifica\u00e7\u00e3o biom\u00e9trica para a instru\u00e7\u00e3o de processos criminais, busca de pessoas desaparecidas, para pris\u00f5es em flagrante de delitos com pena m\u00e1xima superior a dois anos e para cumprimento de mandados de pris\u00e3o.<\/p>\n<p>Assim, apesar da crescente utiliza\u00e7\u00e3o dessas tecnologias pelo poder p\u00fablico, ainda n\u00e3o existem no Brasil regras claras que estabele\u00e7am os limites jur\u00eddicos para seu uso. Na pr\u00e1tica, isso significa que as autoridades de seguran\u00e7a p\u00fablica podem recorrer a esses sistemas de reconhecimento facial com relativa liberdade, diante da aus\u00eancia de uma legisla\u00e7\u00e3o espec\u00edfica disciplinando a mat\u00e9ria.<\/p>\n<p>Esse cen\u00e1rio tende a permanecer at\u00e9 que o Congresso Nacional avance na discuss\u00e3o e eventual aprova\u00e7\u00e3o do Projeto de Lei n\u00ba 2338\/2023. Esse hiato regulat\u00f3rio representa um momento cr\u00edtico, em que o uso indiscriminado dessas tecnologias pode abrir espa\u00e7o para potenciais viola\u00e7\u00f5es de direitos humanos.<\/p>\n<h2><strong>A tecnologia n\u00e3o \u00e9 neutra<\/strong><\/h2>\n<p>O reconhecimento facial funciona por meio de algoritmos treinados com grandes bancos de imagens. O problema \u00e9 que esses bancos de dados n\u00e3o s\u00e3o neutros. Estudos internacionais e relat\u00f3rios t\u00e9cnicos j\u00e1 demonstraram que esses sistemas apresentam <strong>maior taxa de erro quando identificam pessoas negras, mulheres e jovens<a href=\"https:\/\/www.jota.info\/#_ftn6\">[6]<\/a><\/strong>.<\/p>\n<p>Um estudo do MIT<a href=\"https:\/\/www.jota.info\/#_ftn7\">[7]<\/a> (Instituto de Massachusetts de Tecnologia), de 2018, verificou que em tr\u00eas algoritmos de reconhecimento facial de grandes empresas distintas (<em>IBM<\/em>, <em>Microsoft<\/em> e a chinesa <em>Face++<\/em>), o reconhecimento funcionava melhor para homens e pessoas brancas. Enquanto a taxa de erro para homens brancos era de apenas 0,8%, a de mulheres negras \u2013 a categoria que os algoritmos mais tiveram dificuldade em identificar \u2013 a taxa de erro chegou a 34.4%.<\/p>\n<p>Outro estudo de 2022, da Universidade Estadual de Georgia<a href=\"https:\/\/www.jota.info\/#_ftn8\">[8]<\/a>, analisando pris\u00f5es realizadas por mais de 3000 ag\u00eancias de pol\u00edcias locais, estaduais e federais, concluiu que o uso de tecnologia de reconhecimento facial contribuiu para maior disparidade racial nas pris\u00f5es em flagrante, acarretando um aumento de pris\u00f5es de pessoas negras e diminui\u00e7\u00e3o de pris\u00f5es de pessoas brancas.<\/p>\n<p>Isto pois os algoritmos s\u00e3o treinados predominantemente com popula\u00e7\u00f5es brancas, o que introduz um vi\u00e9s racial na identifica\u00e7\u00e3o de indiv\u00edduos.<\/p>\n<p>No Brasil, onde o sistema penal j\u00e1 opera com forte seletividade racial e social, em que a popula\u00e7\u00e3o negra representa 68,2% dos presos no Brasil,<a href=\"https:\/\/www.jota.info\/#_ftn9\">[9]<\/a> a incorpora\u00e7\u00e3o dessa tecnologia sem crit\u00e9rios rigorosos de transpar\u00eancia e controle pode contribuir para refor\u00e7ar desigualdades hist\u00f3ricas.<\/p>\n<p>O criminologista Alessandro Baratta, por exemplo, criticou a incid\u00eancia de estere\u00f3tipos e preconceitos na aplica\u00e7\u00e3o jurisprudencial da lei penal, destacando pesquisas emp\u00edricas que evidenciam as diferen\u00e7as de atitude emotiva e valorativa de ju\u00edzes em face de acusados pertencentes a diversas classes sociais.<\/p>\n<p>Para este autor, essa diferen\u00e7a de percep\u00e7\u00e3o tende a produzir, inconscientemente, uma expectativa desigual de comportamento: espera-se \u201ccomportamento conforme \u00e0 lei de indiv\u00edduos pertencentes aos estratos m\u00e9dios e superiores e o inverso com indiv\u00edduos provenientes dos estratos inferiores\u201d<a href=\"https:\/\/www.jota.info\/#_ftn10\">[10]<\/a>.<\/p>\n<p>Por outro lado, a neutralidade dos algoritmos de IA tamb\u00e9m tem sido questionada para al\u00e9m dos problemas dos vieses hist\u00f3ricos e sociais presentes nos dados utilizados para seu treinamento.<\/p>\n<p>H\u00e1 uma dimens\u00e3o adicional de preocupa\u00e7\u00e3o. Quando o Estado passa a depender de grandes plataformas e multinacionais de tecnologia para exercer fun\u00e7\u00f5es de seguran\u00e7a p\u00fablica, surge uma nova camada de poder: \u00a0a de quem cria e controla o algoritmo, e com quais interesses ela \u00e9 desenvolvida.<\/p>\n<p>Para o economista grego Yanis Varoufakis<a href=\"https:\/\/www.jota.info\/#_ftn11\">[11]<\/a>, vivemos num modelo econ\u00f4mico denominado como \u201c<em>tecnofeudalismo<\/em>\u201d, no qual o poder n\u00e3o se concentra apenas no capital financeiro e pol\u00edtico, mas sobretudo no controle de dados, plataformas digitais e infraestrutura tecnol\u00f3gica.<\/p>\n<p>Os riscos desse modelo n\u00e3o s\u00e3o meramente acad\u00eamicos. Em 2025, por exemplo, a IA generativa <em>Grok, <\/em>desenvolvida pela empresa xAI, do bilion\u00e1rio Elon Musk, foi alvo de cr\u00edticas por gerar coment\u00e1rios abertamente antisemitas<a href=\"https:\/\/www.jota.info\/#_ftn12\">[12]<\/a> e promover narrativas falsas de um suposto \u201cgenoc\u00eddio branco\u201d na Africa do Sul<a href=\"https:\/\/www.jota.info\/#_ftn13\">[13]<\/a>.<\/p>\n<p>Epis\u00f3dios como esse demonstram que sistemas de intelig\u00eancia artificial podem refletir \u2014 ou amplificar \u2014 vieses ideol\u00f3gicos, pol\u00edticos ou culturais presentes em sua concep\u00e7\u00e3o.<\/p>\n<p>Diferentemente de um Estado Democr\u00e1tico, empresas privadas de tecnologia n\u00e3o est\u00e3o necessariamente submetidas aos mesmos par\u00e2metros de responsabilidade p\u00fablica, transpar\u00eancia e controle social.<\/p>\n<p class=\"jota-cta\"><a href=\"https:\/\/conteudo.jota.info\/marketing-lp-newsletter-ultimas-noticias?utm_source=jota&amp;utm_medium=lp&amp;utm_campaign=23-09-2024-jota-lp-eleicoes-2024-eleicoes-2024-none-audiencias-none&amp;utm_content=eleicoes-2024&amp;utm_term=none\"><span>Assine gratuitamente a newsletter \u00daltimas Not\u00edcias do <span class=\"jota\">JOTA<\/span> e receba as principais not\u00edcias jur\u00eddicas e pol\u00edticas do dia no seu email<\/span><\/a><\/p>\n<p>Em um sistema de reconhecimento facial, por exemplo, seria poss\u00edvel direcionar algoritmos para identificar ou monitorar determinados grupos sociais, \u00e9tnicos, religiosos ou pol\u00edticos \u2014 como pessoas que utilizem s\u00edmbolos religiosos espec\u00edficos ou vestimentas associadas a determinado movimento pol\u00edtico.<\/p>\n<p>Por fim, este cen\u00e1rio de r\u00e1pida expans\u00e3o tecnol\u00f3gica traz o risco de ampliar desigualdades e fragilizar direitos fundamentais, tornando urgente o estabelecimento de regulamenta\u00e7\u00e3o clara para o uso de reconhecimento facial, com mecanismos de transpar\u00eancia e supervis\u00e3o tanto no desenvolvimento quanto na aplica\u00e7\u00e3o estatal dessas ferramentas.<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref1\">[1]<\/a> https:\/\/g1.globo.com\/rj\/rio-de-janeiro\/noticia\/2026\/01\/21\/governo-anuncia-licitacao-para-a-instalacao-de-200-mil-cameras-de-seguranca-no-estado-do-rio.ghtml<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref2\">[2]<\/a> https:\/\/hudoc.echr.coe.int\/#{%22itemid%22:[%22002-14142%22]}<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref3\">[3]<\/a> https:\/\/www.fedbar.org\/blog\/glukhin-v-russia-the-european-court-of-human-rights-first-step-into-the-age-of-ai-surveillance\/<a href=\"https:\/\/www.jota.info\/#_ftnref4\"><\/a><\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref5\">[5]<\/a> <a href=\"https:\/\/www.camara.leg.br\/proposicoesWeb\/fichadetramitacao?idProposicao=2487262\">https:\/\/www.camara.leg.br\/proposicoesWeb\/fichadetramitacao?idProposicao=2487262<\/a><\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref6\">[6]<\/a> <a href=\"https:\/\/www.media.mit.edu\/projects\/gender-shades\/overview\/\">https:\/\/www.media.mit.edu\/projects\/gender-shades\/overview\/<\/a>, <a href=\"https:\/\/conectas.org\/en\/noticias\/artificial-intelligence-the-risks-of-racist-biases-in-non-regulated-digital-technologies-in-public-security\/\">https:\/\/conectas.org\/en\/noticias\/artificial-intelligence-the-risks-of-racist-biases-in-non-regulated-digital-technologies-in-public-security\/<\/a><\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref7\">[7]<\/a> <a href=\"https:\/\/www.media.mit.edu\/projects\/gender-shades\/overview\/\">https:\/\/www.media.mit.edu\/projects\/gender-shades\/overview\/<\/a>,<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref8\">[8]<\/a> https:\/\/www.sciencedirect.com\/science\/article\/abs\/pii\/S0740624X22000892?via%3Dihub<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref9\">[9]<\/a> <a href=\"https:\/\/agenciabrasil.ebc.com.br\/justica\/noticia\/2023-03\/populacao-negra-representa-682-dos-presos-no-brasil\">https:\/\/agenciabrasil.ebc.com.br\/justica\/noticia\/2023-03\/populacao-negra-representa-682-dos-presos-no-brasil<\/a>.<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref10\">[10]<\/a> BARATTA, Alessandro. Criminologia Cr\u00edtica e Cr\u00edtica do Direito Penal. Introdu\u00e7\u00e3o \u00e0 Sociologia do Direito Penal. Rio de Janeiro. Editora Revan, 1999 (p. 177-178).<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref11\">[11]<\/a> VAROUFAKIS, Yanis. <strong>Tecnofeudalismo: o que matou o capitalismo?<\/strong> S\u00e3o Paulo: Editora \u00a0\u00a0Cr\u00edtica, 2025.<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref12\">[12]<\/a> https:\/\/newrepublic.com\/post\/197719\/elon-musk-ai-chatbot-antisemitic-rhetoric<\/p>\n<p><a href=\"https:\/\/www.jota.info\/#_ftnref13\">[13]<\/a> <a href=\"https:\/\/newrepublic.com\/post\/195289\/elon-musk-ai-chatbot-grok-white-genocide-south-africa\">https:\/\/newrepublic.com\/post\/195289\/elon-musk-ai-chatbot-grok-white-genocide-south-africa<\/a><\/p>","protected":false},"excerpt":{"rendered":"<p>O Brasil entrou na era da vigil\u00e2ncia algor\u00edtmica. O Estado do Rio de Janeiro anunciou em janeiro o lan\u00e7amento do programa Sentinela[1], o maior programa de tecnologia aplicada \u00e0 seguran\u00e7a p\u00fablica da Am\u00e9rica Latina, prevendo, dentre outras medidas, a instala\u00e7\u00e3o de 200 mil c\u00e2meras com tecnologia de reconhecimento facial, al\u00e9m de leitura automatizada de placas [&hellip;]<\/p>\n","protected":false},"author":0,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[1],"tags":[],"_links":{"self":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/21108"}],"collection":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/types\/post"}],"replies":[{"embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/comments?post=21108"}],"version-history":[{"count":0,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/posts\/21108\/revisions"}],"wp:attachment":[{"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/media?parent=21108"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/categories?post=21108"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aprimora.site\/carvalhoalmeidaadvogados\/wp-json\/wp\/v2\/tags?post=21108"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}