O debate sobre regulação de plataformas digitais no Brasil frequentemente parte de uma premissa equivocada: a de que o ordenamento jurídico seria insuficiente para disciplinar o poder exercido por grandes provedores de aplicação e que “mais regulação” seja necessária.
Essa leitura não se sustenta diante de análise da legislação vigente. O Brasil dispõe de arcabouço normativo abrangente, com instrumentos como o Marco Civil da Internet, a Lei Geral de Proteção de Dados Pessoais, o Código de Defesa do Consumidor e o Código Civil, porém tais normativas não são necessariamente implementados da maneira mais contundente possível.
Nos parece que uma aplicação mais incisiva de tais normas seria capaz de submeter plataformas digitais a um regime consistente de responsabilização, transparência e proteção de direitos fundamentais. A questão central, portanto, não é a ausência de normas, mas a insuficiência de fiscalização, enforcement e de coordenação institucional, como já destacamos em vários estudos empíricos.
Dois casos recentes colocaram essa contradição em evidência: o chatbot Grok e a busca e indexação de sites de “nudificação” pelo Google, ambos ferindo ativamente direitos de mulheres e crianças e adolescentes e violando precedentes jurídicos já consolidados.
Em relação ao primeiro caso, o Grok, chatbot desenvolvido pela xAI de Elon Musk e integrado ao X (antigo Twitter), foi alertado por pesquisadores durante mais de um ano sobre ausência de salvaguardas contra geração de imagens sexualizadas que colocaria menores em risco. A empresa optou por lançar e manter o sistema sem proteções eficazes, como as já implementadas por seus principais competidores (DALL-E e Midjourney), provavelmente porque implementar barreiras atrasaria o crescimento de usuários.
Ferramentas dessa natureza já encontram óbices claros no ordenamento vigente. O art. 21 do Marco Civil estabelece regime específico para imagens de nudez ou atos sexuais de caráter privado, com responsabilização de provedores que não removem conteúdo após notificação. A Lei 15.123/2025 reconheceu explicitamente a inteligência artificial como instrumento de violência psicológica de gênero. Além disso, a LGPD veda o tratamento de dados pessoais de menores de idade sem consentimento de seus representantes legais, em seu artigo 14, §2˚.
Embora o Enunciado CD/ANPD nº 1/2023 autorize o tratamento de dados de crianças e adolescentes independentemente de consentimento, ele somente pode ser realizado nas hipóteses legais previstas do art. 7˚ e 11 da LGPD e com a finalidade de se atender ao seu melhor interesse. De tal modo, a utilização de tais dados para alimentar ferramentas de nudificação ou de falsificação de imagens constitui finalidade incompatível com o referido princípio do melhor interesse. Ainda assim, a xAI continua a operar livremente no Brasil sem implementar filtros e medidas de adequação, sem (até o momento) enfrentar sanções domésticas significativas.
Em relação ao segundo caso, recente estudo elaborado pelo CTS-FGV, considerando dados do Google Trends revelou a dimensão de um problema correlato: a listagem de sites com ferramentas de “nudify” (uso de machine learning para despir roupas) no Google e a busca ativa de usuários por sites que permitissem, até mesmo gratuitamente, a operação dessa ferramenta. Foram encontradas, por exemplo, variações das buscas até mesmo em português, com usuários apresentando alto grau de interesse em termos como “despir IA”, “nudes IA” e “nudify grátis”.
Ao indexar páginas e canais que proporcionam o acesso a tais ferramentas, o Google facilita a identificação e até legitima tais instrumentos de abuso, que afetam principalmente mulheres, crianças e adolescentes. De tal modo, eles são tratados da mesma forma que um mero conteúdo convencional de seus resultados, amplificando exponencialmente o alcance de tais sites e reduzindo barreiras psicológicas.
Considerando a próxima vigência do ECA Digital, a empresa precisa ainda implementar salvaguardas específicas para evitar que crianças e adolescentes não só sejam vítimas desse tipo de abuso, mas também que possam ter acesso a esse tipo de conteúdo e ferramenta. Ressalta-se que o Google não atua como intermediário neutro quando legitima sites cuja arquitetura foi desenhada precisamente para viabilizar violações em massa de direitos fundamentais, lucrando indiretamente com a busca por tais sites. Há precedentes da própria empresa para a desindexação para conteúdo de abuso sexual infantil (CSAM) e terrorismo. Nesse sentido, a mesma lógica deveria se aplicar a ferramentas que instrumentalizam violação de intimidade em escala industrial.
Apesar do arcabouço legal aplicável, ANPD, Senacon e Ministério Público Federal tem atuado de forma tímida, com emissão de meras recomendações ao X no caso do Grok. Nos parece necessário que tais entidades atuem de forma coordenada para exigir maior transparência sobre critérios de moderação ou auditoria de algoritmos de recomendação que amplificam acesso a esses sites.
De outro lado, importa dizer que a dificuldade de aplicação das normas vigentes decorre da assimetria estrutural entre Estado brasileiro e empresas transnacionais de tecnologia. Autoridades reguladoras frequentemente não dispõem de recursos humanos e tecnológicos compatíveis com a complexidade dos sistemas que devem supervisionar. Contudo, sem investimento em auditoria técnica e capacitação de servidores, o potencial regulatório das normas existentes permanece subaproveitado. Na ausência fiscalização, padronização e enforcement, a adoção de regulação corre o risco de ser “para inglês ver”.
A aprovação do PL 2338/2023 com classificação de chatbots de geração de imagem como alto risco é necessária para eliminar ambiguidades interpretativas, mas não substitui aplicação imediata do arcabouço existente. O debate deve, portanto, deslocar-se da criação incessante de novas leis “à moda Europeia” para fortalecimento institucional e aplicação firme das normas vigentes.