Em 2017, quando eu mencionava, em aula ou palestra, o exemplo de publicidade que surgia no Instagram após a simples verbalização de um produto ou serviço, a reação de quem ouvia era de surpresa. Era algo ainda percebido como excepcional. Com o tempo, o fenômeno foi naturalizado e até virou meme.
Desde o último ano, meus alunos de direito digital já me ouviram (ou me ouvirão) relatar o caso de um potencial cliente que utilizava sistemas de IA generativa por cerca de 18 horas diárias. Ele me procurou com a intenção de redigir um “manifesto jurídico”, em múltiplos idiomas, para comunicar às autoridades globais que teria descoberto a suposta consciência de seu sistema conversacional. Por conta disso, também estaria sendo alvo de perseguições por empresas desenvolvedoras de IA, incluindo tentativas de sequestro, morte de seus animais de estimação e outras formas de ataque.
Pode-se estar diante de uma das primeiras manifestações no Brasil do que vem sendo denominado “psicose de IA”, fenômeno já identificado em mais de 400 ocorrências no âmbito do The Human Line Project. Entre elas, 17 resultaram em mortes e 107 em hospitalizações.
Ragy Girgis, professor de psiquiatria clínica na Columbia University e no New York State Psychiatric Institute, na National Academy dos EUA, sintetiza o fenômeno de forma precisa: ao se falar em psicose associada à IA, está-se diante de modelos de linguagem que reforçam ideias incomuns e amplificam o grau de confiança do indivíduo que com eles interage, podendo levar a pessoa ao desalinhamento com a realidade e a questões de saúde mental.
A dimensão do problema encontra respaldo na própria autodivulgação da OpenAI: a empresa estimou que cerca de 0,07% dos usuários ativos em uma determinada semana e 0,01% das mensagens indicavam possíveis sinais de emergências de saúde mental relacionadas a psicose ou mania. Traduzidos para números em relação a sua base de usuários, esses percentuais correspondem a aproximadamente 560.000 pessoas por semana – dado que, por partir do próprio controlador, revela risco sistêmico reconhecido e mensurável.
A causa não é meramente comportamental ou psicológica, mas arquiteturalmente tecnológica. A literatura denomina de sycophancy (bajulação): um padrão de comportamento em que o sistema ajusta suas respostas para agradar o usuário, reforçando suas percepções, independentemente de sua veracidade ou adequação. Orienta-se à validação adaptativa das manifestações do usuário, capaz de produzir distorções cognitivas relevantes.
Estudo recente do MIT e da Universidade de Washington demonstrou que o fenômeno não depende de predisposição à irracionalidade. Mesmo um usuário idealmente racional pode se tornar vulnerável a uma espiral delirante quando interage com sistemas configurados com essa “ratio” de resposta. O sistema é programado, sobretudo, para agradar, não para informar.
É uma propriedade emergente desses modelos. Sistemas são treinados por reforço a partir de feedback humano (reinforcement learning from human feedback, RLHF), mecanismo pelo qual respostas avaliadas como preferíveis recebem sinais positivos de recompensa. Com o tempo, isso é internalizado, privilegiando-se respostas que maximizam a aceitação do usuário, ainda que em detrimento da acurácia.
Conforme estudo publicado na Science, não há incentivos relevantes para a correção desse padrão – pelo contrário: o aumento do engajamento, a satisfação imediata e a intenção de retorno do usuário são métricas comerciais extremamente relevantes na economia digital. O efeito é conhecido, mensurável e tecnicamente evitável, mas é mantido por escolha de design e processos de refinamento que poderiam ser aprimorados.
Agravante, ainda, é que a invisibilidade desse padrão é constitutiva de seu funcionamento. Pesquisa recente indicou que a maioria dos usuários é incapaz de detectar esse comportamento do chatbot, mesmo após interação prolongada. O risco, aqui, não é e nem poderia ser internalizado pelo titular, pois alheio à sua expectativa legítima quanto ao tratamento de seus dados e tampouco pode ser mitigado por mecanismos tradicionais de transparência.
É nesse ponto que o fenômeno, além de ser um problema de saúde pública e de ética, torna-se de proteção de dados pessoais, pois a psicose de IA não emerge apesar do tratamento de dados pessoais, mas por meio dele. É no plano do tratamento – e não apenas de seus efeitos – que a resposta jurídica também deve se situar.
A sycophancy opera mediante coleta e tratamento contínuo de dados do usuário: crenças, opiniões, estados emocionais, hipóteses, tendências e posicionamentos. Tais informações configuram dados pessoais nos termos do art. 5º, I, da LGPD e, em diversos contextos, assumem natureza sensível, notadamente quando revelam ou permitem revelar informações sobre saúde mental ou opinião filosófica do titular, categorias expressamente protegidas pelo art. 5º, II, da LGPD, atraindo o regime jurídico mais rigoroso previsto na lei.
Em regra, esses dados serão utilizados para inferir padrões mentais e ajustar respostas de modo a maximizar engajamento por meio da validação adaptativa do usuário. Mais do que isso, há aqui um processo de tratamento inferencial voltado à identificação e exploração das vulnerabilidades cognitivas do titular, categoria jurídica inaugurada pelo Decreto 12.880/2026 que regulamentou o ECA Digital, qualificando tal conduta como prática manipulativa.
Como impõe o princípio da finalidade (art. 6º, I, LGPD), o tratamento de dados pessoais deve se limitar a propósitos legítimos, específicos, explícitos e previamente informados ao titular, sendo vedado o tratamento posterior de forma incompatível com essas finalidades.
Nesse contexto, por exemplo, o ChatGPT declara realizar o tratamento de dados para fornecer, analisar, manter, aprimorar e desenvolver seus serviços e funcionalidades, bem como para personalizar e adaptar a experiência do usuário. Todavia, o tratamento de dados para sustentar mecanismos de validação adaptativa não se encontra explicitado como finalidade específica nas políticas e tampouco parece ser compatível com as finalidade originária.
A questão da base legal é igualmente relevante: a ANPD já assentou, no âmbito do caso da Meta, que o legítimo interesse não ampara tratamentos que contrariem as legítimas expectativas do titular e que envolvam, direta ou indiretamente, dados de natureza sensível. O raciocínio é diretamente transponível: usuários que compartilham crenças, estados emocionais e hipóteses com sistemas conversacionais não o fazem com a expectativa de que essas informações sejam utilizadas para identificar e explorar suas vulnerabilidades cognitivas em favor do engajamento do controlador.
É nesse cenário que a LGPD pode se apresentar como um instrumento particularmente adequado de intervenção. Ao que se tem notícia, a regulação tende a incidir sobre as consequências da prática manipulativa – “é vedado manipular”. Aqui, contudo, exige-se atuação sobre sua causa arquitetural – e, para isso, é necessária uma atuação preventiva e sistêmica.
A LGPD dispõe de clara vocação ex ante: Relatório de Impacto à Proteção de Dados Pessoais, privacy by design e by default, medidas técnicas e administrativas de segurança, bem como os princípios da prevenção e da prestação de contas e responsabilização. Esses mecanismos funcionam como critérios de licitude do próprio tratamento, aptos a avaliar, condicionar e, quando necessário, impedir práticas que impliquem riscos desproporcionais aos titulares, antes mesmo de sua implementação.
Por isso, recaem sobre a própria arquitetura do tratamento, e não apenas sobre o dado pessoal isoladamente considerado. Isso revela o potencial da LGPD de orientar o desenvolvimento de tecnologias emergentes e conformar modelos de negócio aos limites da disciplina de proteção de dados pessoais.
Não que medidas ex post e individuais não sejam relevantes ou necessárias. Direitos dos titulares, responsabilização e sanções, entretanto, nem sempre se mostrarão plenamente adequados para enfrentar um fenômeno sistêmico e invisível ao titular, seja porque dependem, em grande medida, de sua iniciativa individual, seja porque operam após a consumação do dano, muitas vezes já disseminado em larga escala e de difícil reversão.
A LGPD possui, ainda, instrumentos de alcance sistêmico. A lei institui um modelo regulatório que vai além da relação individual titular-controlador, podendo incidir sobre práticas estruturais de tratamento. Essa dimensão se manifesta, de forma particular, no papel institucional da ANPD, dotada de competências normativas, fiscalizatórias, sancionatórias e de orientação ao mercado e ao Poder Público.
Tais competências já foram exercidas concretamente no domínio da IA: em julho de 2024, diante de risco iminente de dano grave e irreparável a mais de 102 milhões de titulares, a ANPD emitiu Medida Preventiva determinando a imediata suspensão do tratamento de dados da Meta para fins de treinamento de IA generativa, fundada, entre outros, na inadequação da base legal do legítimo interesse, na ausência de transparência e no uso de dark patterns que obstaculizavam o exercício de direitos pelos titulares.
Esse precedente foi reforçado, em dezembro do mesmo ano, por medida análoga em face da X Corp. Ao encerrar a fase cautelar do caso Meta, a ANPD aprovou ainda um Plano de Conformidade, instrumento por meio do qual interveio diretamente sobre a arquitetura do tratamento, impondo à empresa compromissos operacionais concretos quanto à forma de coleta, uso e comunicação dos dados pessoais.
A psicose de IA, ao se situar no mesmo regime – tratamento de dados para fins de IA com impacto desproporcional sobre os titulares –, é exatamente o tipo de fenômeno que poderia ensejar resposta institucional equivalente. Nesse contexto, a LGPD se apresenta como mecanismo de intervenção possível sobre arquiteturas tecnológicas que afetam a liberdade cognitiva, compreendida como a capacidade do indivíduo de formar crenças, opiniões e decisões livres de manipulação ou influencia abusiva de forma sistemática.
Enquanto isso, o caso a que me referi do potencial cliente continua a gerar espanto. Preocupa-me, contudo, que fenômenos dessa natureza deixem de causar estranhamento e passem a ser normalizados – não mais como meme, mas potencialmente como danos cumulativos e progressivos aos projetos de vida das pessoas.