Nos últimos anos, o debate brasileiro sobre regulação de plataformas e tecnologias como a inteligência artificial tem sido marcado por ciclos muito semelhantes: algo horrível (e criminoso) acontece e mobiliza a discussão pública — como os ataques nas escolas em 2023, ou os atos antidemocráticos de 8 de janeiro em 2024 — e logo após, porém, a discussão estagna no Poder Legislativo.
Isto já levou, por exemplo, a uma ação do Poder Judiciário para deliberar acerca dos impasses sobre as regras de responsabilidade[1] que valem para o ambiente digital, diante da demora do Congresso Nacional. Desde o importante vídeo do influenciador Felca sobre adultização, um novo capítulo tomou conta do debate público no Brasil, a ponto de impactar o andamento e aprovação do ECA Digital[2].
Qual será, então, o grande evento necessário para ajudar na aprovação de uma regulação para sistemas de inteligência artificial? Com o escândalo[3] de deepnudes geradas sem autorização com a ferramenta Grok – IA da plataforma X, antigo Twitter –, em que milhares de mulheres e até mesmo crianças[4] têm sido despidas de forma ilegal, será que finalmente chegou o momento de o Congresso Nacional avançar em direção a uma regulação responsável e protetiva de direitos?
Deepnudes geradas pelo Grok e a violação em massa de direitos de imagem e privacidade
Milhares de imagens de nudez geradas por inteligência artificial estiveram – e continuam – circulando no X sem o consentimento da pessoa retratada. O conteúdo sexual produzido de forma sintética expôs, principalmente, meninas e mulheres à uma violação da privacidade, intimidade, gerando danos imensuráveis[5] às vítimas.
Ficou evidente, mais uma vez, como tecnologias que operam com pouca transparência e responsabilização são terrenos férteis para a automatização das nossas disfunções sociais como a violência, discursos discriminatórios e propagação de ódio nas redes. Internacionalmente, países como a França, Itália e o Reino Unido[6] instauraram investigações para apurar a conduta da empresa. No Brasil, a sociedade civil tem se mobilizado para que haja responsabilização e que, finalmente, possamos avançar num debate sobre responsabilidade e limites de tecnologias como a IA generativa.
Outra resposta foram as recomendações expedidas pela ANPD, MPF e Senacom[7] – dentre elas que seja implementado imediatamente mecanismos que proíbam a geração de novas imagens, excluir as contas envolvidas nessas violações, elaborar um relatório de impacto à proteção de dados pessoais, entre outras medidas.
O papel da (des)regulação da IA nesse e em outros danos
O cenário acima se torna ainda mais grave em um contexto sem qualquer lei para o uso e desenvolvimento de sistemas de IA. A versão atual[8] do PL 2338/2023 possui previsões específicas para conteúdo sintético nos arts. 19 e 20 e medidas de governança para IAs generativas no art. 29 e seguintes.
Há obrigações para que o desenvolvedor inclua identificador nos conteúdos gerados pelas ferramentas, de modo a auxiliar na verificação de autenticidade, proveniência, modificações ou transmissão e, consequentemente, na responsabilização caso haja a produção de conteúdo indevido.
Com a evolução cada vez mais rápida de modelos generativos, cuja performance deixa cada vez mais difícil distinguir o que é um conteúdo verdadeiro e o que é gerado por IA, torna-se fundamental a aprovação de salvaguardas mínimas para assegurar a integridade da informação em ambiente digital e proteger a democracia brasileira.
No art. 29, a determinação de realização de avaliação preliminar desponta como uma obrigação relevante para aferição dos riscos da tecnologia e aplicação das medidas de governança adequadas ao seu perfil.
Apesar de serem previstos deveres para IAs generativas que contenham riscos sistêmicos, ou seja, que, de acordo com as definições do próprio texto da proposta, apresentem “potenciais efeitos adversos negativos (…) com impacto significativo sobre direitos fundamentais individuais e sociais”, o texto carece de normas gerais para este tipo de modelo. Uma vez que o principal método de treinamento de sistemas generativos ainda consiste em uma raspagem abrangente de conteúdos encontrados na internet, sem a devida avaliação e curadoria dos dados coletados, é preciso que haja a determinação de identificação e adoção de medidas de mitigação para vieses discriminatórios de forma expressa.
Sobretudo no contexto brasileiro, em que discriminações como o racismo possuem caráter estrutural, as IAs generativas que se destinam à nossa realidade devem conter parâmetros rígidos para evitar a discriminação algorítmica e a potencialização da violação de direitos fundamentais de grupos historicamente marginalizados. No que tange à produção de deepnudes, ou de conteúdo sintético de terceiros, é imperiosa a necessidade de exigência de formas de comprovação do consentimento explícito da pessoa a ser retratada, como meio de proteger a privacidade, os dados pessoais e os direitos de imagem dos indivíduos.
Ainda aguardamos por algo pior para regular a IA?
De fato, o PL ainda pode e deve melhorar, mas a velocidade da sua tramitação, além da dificuldade da sociedade civil de se inserir nos debates da Comissão Especial de IA[9] da Câmara dos Deputados, tem servido como o principal escudo para que casos como o do Grok e outros permaneçam acontecendo indefinidamente.
Mulheres, crianças, adolescentes, pessoas negras, pessoas trans e outros grupos vulneráveis são os que mais ficam expostos neste cenário, mas a sociedade perde como um todo quando a tecnologia avança sem qualquer compromisso em proteger as pessoas.
Então, o que falta para a regular a IA no Brasil? Será que precisamos de algo mais ultrajante e vulgar do que a exposição de fotos de mulheres e crianças nuas, sem consentimento, para que o PL 2338 seja tomado como prioridade pelos diferentes setores da sociedade para 2026? Será necessário testar a democracia brasileira novamente, em um novo período eleitoral, sem qualquer regra a assegurar ética e responsabilidade em modelos de inteligência artificial?
[1] FERNANDES, Leonardo. Está decidido: STF define que plataformas devem ser responsabilizadas por conteúdos de usuários. Brasil de Fato, 26 jun. 2025. Disponível em: https://www.brasildefato.com.br/2025/06/26/esta-decidido-stf-define-que-plataformas-devem-ser-responsabilizadas-por-conteudos-de-usuarios/
[2] ISMERIM, Flávio. “ECA Digital”: entenda o que muda com o PL da Adultização. CNN Brasil, 27 ago. 2025. Disponível em: https://www.cnnbrasil.com.br/tecnologia/eca-digital-entenda-o-que-muda-com-o-pl-da-adultizacao/
[3] MORAES, Lígia. IA criminosa: o que está por trás do escândalo das imagens sexualizadas do Grok, de Musk. Veja, 16 jan. 2026. Disponível em: https://veja.abril.com.br/tecnologia/ia-criminosa-o-que-esta-por-tras-do-escandalo-das-imagens-sexualizadas-do-grok-de-musk/
[4] BOECHAT, Nara. O que IA de Musk afirma sobre criação de imagens sexualizadas de crianças. Veja, 2 jan. 2026. Disponível em: https://veja.abril.com.br/coluna/veja-gente/o-que-ia-de-musk-afirma-sobre-criacao-de-imagens-sexualizadas-de-criancas/
[5] IBELLI, Luana. Montagens de IA com fotos mulheres nuas criam traumas reais e prejuízos à vida social e profissional. Brasil de Fato, 14 jan. 2026. Disponível em: https://www.brasildefato.com.br/podcast/brasil-de-fato-entrevista/2026/01/14/montagens-de-ia-com-fotos-mulheres-nuas-criam-traumas-reais-e-prejuizos-a-vida-social-e-profissional/
[6] MUKHERJEE, Supantha; SANDLE, Paul. Elon Musk anuncia medidas para restringir “nudes digitais” do Grok; entenda. CNN Brasil, 15 jan. 2026. Disponível em: https://www.cnnbrasil.com.br/tecnologia/elon-musk-anuncia-medidas-para-restringir-nudes-digitais-do-grok-entenda/
[7] AGÊNCIA NACIONAL DE PROTEÇÃO DE DADOS. ANPD, MPF e Senacon recomendam que X impeça geração e circulação de conteúdos sexualizados indevidos por meio do Grok. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-mpf-e-senacon-recomendam-que-x-impeca-geracao-e-circulacao-de-conteudos-sexualizados-indevidos-por-meio-do-grok
[8] A versão atual do Projeto de Lei 2.338/2023 mencionada no texto é a aprovada pelo Senado Federal e encaminhada para a Câmara dos Deputados, para discussão no âmbito da Comissão Especial em IA. Disponível em: https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra?codteor=2868197&filename=PL%202338/2023
[9] Comissão Especial sobre Inteligência Artificial (PL 2338/23) da Câmara dos Deputados. Página oficial em: https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-temporarias/especiais/57a-legislatura/comissao-especial-sobre-inteligencia-artificial-pl-2338-23