X afirma bloquear imagens sexuais do Grok e discorda de aplicação imediata de decisão do STF

A rede social X (ex-Twitter) informou às autoridades brasileiras que estabeleceu medidas para evitar a geração de conteúdos sintéticos sexualizados que retratam pessoas reais, incluindo crianças e adolescentes, pelo assistente de Inteligência Artificial da plataforma, o Grok.

Segundo as informações enviadas pelo X na noite de terça-feira (27/01), já foram implementadas soluções técnicas para “bloquear em nível global a capacidade de todos os usuários de gerar, por meio do Grok ou da conta @Grok no X, imagens não consensuais de pessoas reais, sejam crianças ou adultos, em trajes reveladores”.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

A manifestação do X atende a uma demanda aberta em conjunto pelo Ministério Público Federal (MPF), pela Agência Nacional de Proteção de Dados (ANPD) e pela Secretaria Nacional do Consumidor (Senacon), do Ministério da Justiça e Segurança Pública. Os órgãos vão analisar as medidas anunciadas pela plataforma para avaliar se são suficientes.

Como mostrou o JOTA, as providências tomadas pelas autoridades no caso são um prenúncio para o novo regime de responsabilidade do Marco Civil da Internet (MCI), após as mudanças determinadas pelo Supremo Tribunal Federal (STF) no artigo 19 da legislação. A ANPD, o MPF e a Senacon fizeram menção ao acórdão do STF.

Em sua resposta, o X também mencionou a decisão, mas para insistir no fato de que as determinações do Supremo não podem ser aplicadas, pois o processo ainda não se encerrou no STF. Ainda estão pendentes de julgamento recursos apresentados por big techs e por organizações da sociedade civil.

Segundo a manifestação enviada pelo X, uma das demandas dos órgãos no caso do Grok “antecipa em muito” a definição do STF sobre o MCI. “O acórdão do julgamento não transitou em julgado e, portanto, não produz quaisquer efeitos práticos no momento”, declarou o X.

O ponto sob controvérsia é o que trata do envio de relatórios mensais comprovando o cumprimento do “dever de cuidado” da plataforma e a inexistência de “falha sistêmica” relacionada à circulação de conteúdos graves na rede social.

O X entende que a medida não está prevista na decisão do STF. “Com todas as vênias, e embora esta peticionária não se negue a colaborar com a prestação de informações sobre o episódio e o monitoramento das salvaguardas adotadas, esta não é uma metodologia imposta na decisão ou em outro instrumento regulatório ou processual”, afirmou a plataforma, representada no caso pelo escritório Pinheiro Neto.

Generated by Feedzy