Deepfakes e identidade digital

A construção de modelos de áudio e vídeo que reconstroem a imagem e semelhança de personalidades reais – que se tornou conhecida como deepfakes – tem se tornado um verdadeiro pesadelo em termos regulatórios. Isso porque, ao passo que as tecnologias de inteligência artificial evoluem em termos exponenciais, a regulação jurídica caminha de maneira vagarosa e cautelosa, tangenciando modelos que minimamente ofereçam à população meios de defesa seja de seus direitos de personalidade, seja de direitos patrimoniais.

Os possíveis danos, nesse sentido, podem tanto alcançar a esfera existencial dos afetados – violando direitos de personalidade – quanto desviar possíveis ganhos e redundar enriquecimento sem causa dos perpetradores ao atrelar a imagem (e os gestos, fala, dentre outros aspectos da personalidade) de figuras públicas cuja credibilidade pode ser indevidamente explorada. Em casos mais graves, tais maquinações podem provocar verdadeiros riscos de saúde pública, tendo se tornado notória a utilização da imagem do médico Dráuzio Varella a produtos e suplementos de credibilidade duvidosa ou até mesmo de natureza reconhecidamente prejudicial.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Tais resultados potencialmente catastróficos são decorrência direta da crescente acurácia dessas mídias produzidas por inteligência artificial. Estudo publicado no Proceedings of the National Academy of Sciences por Groh, Epstein, Firestone e Picard (PNAS, vol. 119, n. 1, 2022), com 15.016 participantes, mostrou que humanos identificam corretamente deepfakes de alta qualidade em apenas 24,5% das tentativas. Pesquisa mais recente da iProov, divulgada em 2025, indicou que somente 0,1% dos participantes conseguiram identificar corretamente todo o conjunto de conteúdos reais e falsos apresentados. Estimativas da empresa de detecção DeepMedia, reportadas pela Reuters, sugerem que o volume de deepfakes em circulação saltou de cerca de 500 mil em 2023 para a ordem de 8 milhões em 2025. A tecnologia já supera a capacidade humana de detecção, e o dano ao direito à identidade digital deixou de ser problema de nicho: é hoje ameaça generalizada à individualidade de qualquer pessoa, com impacto agudo sobre figuras públicas, cuja voz e imagem circulam em escala industrial.

Por mais desafiador que seja o cenário que se apresenta, o Brasil já conta com iniciativas relevantes para tratar do problema. A Lei nº 15.123/2025, nesse sentido, agravou a pena do art. 147-B do Código Penal para violência psicológica com uso de IA, ao inserir paraágrafo único que dispõe que “A pena é aumentada de metade se o crime é cometido mediante uso de inteligência artificial ou de qualquer outro recurso tecnológico que altere imagem ou som da vítima”. A Resolução TSE nº 23.732/2024 proibiu deepfakes em propaganda eleitoral, estabelecendo o § 1º de seu art. 9º-C que “É proibido o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deep fake)”.

Ademais, evidentemente que eventuais violações a direitos de personalidade são tuteladas pela cláusula geral de proteção à personalidade contida no Código Civil brasileiro, mecanismo que, embora inespecífico, vem sendo há muito trabalhado pela literatura e pela jurisprudência como caminho eficaz para a defesa de direitos independentemente do suporte tecnológico que dê origem a violações. Com isso, possivelmente o desenvolvimento tecnológico não subsiste sem ser minimamente desafiado pelas salvaguardas do ordenamento, ainda que estas não estejam voltadas especificamente a tratar de uma tecnologia ou de outra.

No entanto, este breve artigo tem por intuito discutir mecanismo jurídico inovador que pode lançar novas luzes – ou, no mínimo, oferecer novos caminhos para reflexão – sobre esse debate. Em junho de 2025, foi apresentada emenda à lei de direitos autorais da Dinamarca (Ophavsretsloven) para criar proteção específica e autônoma contra imitações digitais não consentidas, tanto de artistas quanto de qualquer pessoa natural.

A emenda dinamarquesa introduz duas proteções distintas. A primeira, inserida como seção 65a, veda a reprodução pública de imitações digitais realistas da performance de um artista sem seu consentimento, com proteção que se estende por 50 anos após sua morte. A segunda, seção 73a, vai mais longe: proíbe a disponibilização pública de imitações digitais das características físicas de qualquer pessoa natural – aparência, voz, gestual – sem consentimento expresso, com o mesmo prazo post mortem.

O que torna o modelo notável não é só a amplitude da proteção, mas a lógica jurídica que a sustenta. A Dinamarca optou por tratar a proteção de direitos de personalidade com mecanismos que são próprios da sistemática de proteção a direitos autorias. Naturalmente que, com isso, não se está a falar na alteração de natureza jurídica da proteção à imagem, ao gestual, e à voz da pessoa, mas se passa a oferecer um ferramental apoiado inclusive nos mecanismos processuais oferecidos pelo diploma de proteção a direitos autorais. O que a proposta de emenda faz, com isso, não é suprimir outras formas de proteção, mas reconhecer que a identidade digital de uma pessoa tem valor jurídico autônomo.

Há, porém, uma exceção relevante: são permitidas imitações que constituam caricatura, sátira, paródia, pastiche ou crítica a figura política, de sorte que a liberdade de expressão criativa é teoricamente preservada. Mas a exceção comporta também uma exceção: se a imitação constituir desinformação capaz de prejudicar gravemente direitos ou interesses de terceiros, a proteção prevalece.

É verdade que, à primeira vista, a proposta dinamarquesa pode parecer introduzir indevida limitação temporal à tutela da personalidade, cuja eficácia não admite esse tipo de restrição. No entanto, para além da circunstância de que a tutela da personalidade não é propriamente suprimida, mas sim complementada, é relevante o fato de que a incidência de sistemática análoga à da propriedade intelectual afasta ou ao menos mitiga o ônus de demonstração do prejuízo para a configuração da lesão a direito. Com isso, constatada a violação, subsistem tão somente as controvérsias relativas à quantificação do dano ou do montante a ser restituído em caso de enriquecimento sem causa.

O modelo dinamarquês não se apresenta como panaceia, nem deve ser transposto acriticamente ao ordenamento brasileiro. Contudo, oferece inflexão conceitual relevante: o reconhecimento de que a identidade digital – compreendida como a conjugação de imagem, voz e gestual – constitui bem jurídico dotado de valor autônomo, merecedor de tutela que dialogue com as ferramentas já consolidadas no direito autoral. Tal perspectiva não desloca a proteção da personalidade para o campo patrimonial, mas agrega instrumental processual e probatório que se mostra particularmente adequado diante da escala industrial com que circulam os conteúdos sintéticos na atualidade.

O debate que se inaugura, portanto, não é sobre a suficiência das normas vigentes – que seguem plenamente aplicáveis –, mas sobre a conveniência de se reconhecer, também entre nós, que a identidade digital comporta proteção específica e autônoma. Se o ordenamento dinamarquês acerta ao perceber que a acurácia crescente das tecnologias de imitação exige respostas jurídicas equivalentes em precisão, cabe à doutrina e ao legislador brasileiros avaliar em que medida essa lógica pode inspirar soluções compatíveis com a tradição civilista nacional.

Generated by Feedzy