Proteção de crianças e adolescentes no ambiente digital

Nos últimos dias, o vídeo publicado pelo youtuber Felca sobre adultização ganhou as redes. Furando a bolha de seus seguidores, Felca conseguiu reacender o debate público e político sobre exposição de menores de idade na internet e os perigos do ambiente digital.

Dentre os vários tópicos trazidos no vídeo, o comportamento algorítmico das plataformas chamou atenção. Ao criar uma conta nova e dar inputs com curtidas em postagens específicas de menores de idade, Felca conseguiu demonstrar que a distribuição do conteúdo prestigia os interesses indicados pelos usuários, até mesmo quando esses interesses são perversos e podem se enquadrar em crimes, como pedofilia.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Com o aflorar do debate público, que resgatou inclusive iniciativas importantes como o ECA Digital (um substitutivo ao PL 2628/2022), existem outras duas reflexões importantes sobre o tema: (i) qual conteúdo envolvendo menores de idade deve ser postado em redes sociais; e (ii) o que é transparência algorítmica exigível das plataformas em relação a esse tipo de conteúdo.

Sobre o primeiro ponto: qual conteúdo envolvendo menores de idade deve ser postado em redes sociais? A resposta é clara: absolutamente nenhum.

Veja: ao menos no Brasil, plataformas não são ambientes digitais completamente desregulados. Postagens com conteúdos manifestamente ilegais envolvendo menores de idade sequer conseguem ser postados na maior parte das redes sociais, pois os próprios algoritmos e sistemas de inteligências artificiais barram o upload dessas fotos e já notificam autoridades com informações de identificação dos usuários responsáveis por tais conteúdos, para que providências legais sejam tomadas.

O que o vídeo produzido pelo Felca mostrou é que a rede de pedofilia e exploração da imagem infantil não está associada, apenas, a conteúdos manifestamente ilícitos envolvendo menores. Muitos conteúdos são considerados legais e, por esse motivo, não são barrados pelas redes sociais. São as fotos que os amigos e familiares postam dos filhos e filhas usando trajes de banho, dançando, fazendo ginástica artística.

Alguns conteúdos são mais extremos e mostram menores em atividades hiperssexualizadas, dançando músicas com claro conteúdo pornográfico. Até esses, contudo, são permitidos, pois os menores estão vestidos, fazendo uma atividade legal, muitas vezes até sob a supervisão de um adulto. Mas muitas são fotos de pessoas que compartilham o cotidiano de seus filhos nas redes e que, pela malícia de outros usuários, acabam entrando em redes de pedófilos.

O vídeo mostra então uma importante lição: fotos de crianças e menores de idade não devem estar nas redes sociais. Existem várias discussões sobre os perigos da coleta dos dados de menores e sobre o histórico digital dos indivíduos que são expostos na rede desde pequenos, mas é preciso haver uma outra reflexão mais profunda: conteúdos postados na internet acabam virando postagens sem dono, utilizadas com as mais variadas finalidades, por pessoas com as mais variadas intenções.

Expor a imagem de crianças e adolescentes, ainda que de forma inocente e despretensiosa na praia, na academia, ou dançando com amigos, pode acabar submetendo o menor a uma rede de pessoas que irá gravar esse conteúdo para explorá-lo sexualmente de forma violenta.

Não só, com inteligências artificiais generativas, explorar imagens inocentes de menores é ainda mais fácil, e distorcer vídeos e conteúdos dessas crianças para que sejam vendidos e compartilhados como conteúdos ilegais é uma prática, infelizmente, já comum em fóruns de deep web e de gêneros similares.

Por isso, a discussão sobre postagem de menores de idade é muito mais sofisticada. Não se trata apenas de coibir plataformas de tornar possível a postagem de conteúdos manifestamente ilícitos – na grande parte dos casos, isso já acontece. Trata-se de inserir no debate público a consciência sobre a importância de se proteger a imagem de crianças e adolescentes a todo custo, deixando de postar fotos que identifiquem esses menores, independentemente da circunstância.

O segundo ponto exige uma discussão regulatória mais sofisticada, mas que também já encontra alguns parâmetros de reflexão por meio de leis existentes no país. Falar sobre transparência algorítmica, em qualquer cenário, é um desafio. Há uma considerável dificuldade no regime de regulação da proteção de dados em saber o que é possível exigir das plataformas para conhecer como a distribuição do conteúdo acontece.  E existem questões que complexificam esse debate, como segredos de negócio das plataformas; analfabetismo matemático para compreender o funcionamento desses códigos matemáticos; limites da transparência; excesso de informação, dentre outros.

Algumas questões, contudo, podem ser colocadas como claras. Uma delas é que existe obrigação de transparência. Mas essa obrigação pode ser diferente para você, usuário, e para a Autoridade Nacional de Proteção de Dados (ANPD), que efetivamente fiscaliza a atividade dessas redes.

Você, usuário, não necessariamente precisa saber detalhes sofisticados sobre como ou por que um conteúdo chega até você. E isso por vários motivos, mas o maior deles é que você não tem o conjunto de conhecimentos técnicos (e matemáticos) suficientes para avaliar essas informações. Algoritmos são códigos e a estruturação deles é excessivamente complexa para leigos (e as vezes até para profissionais).

A transparência para a autoridade (no Brasil, a ANPD) já é diferente. A depender da circunstância, ela possui uma série de mecanismos para conhecer essas informações mais complexas e avaliar se elas cumprem a finalidade indicada e atendem a uma série de princípios sobre a proteção de dados. O órgão pode solicitar auditoria dos códigos, relatórios de impacto e esclarecimentos complexos sobre como o conteúdo é distribuído, como os dados são coletados. É a autoridade a destinatária de um tipo de transparência mais relevante para regulação das redes, pois é a autoridade que possui capacidade técnica e sancionatória para avaliar as informações e punir as plataformas que violarem a lei.

Mesmo ao discutir crianças e adolescentes, existe um nível de transparência que os usuários podem exigir. Esse nível não é muito claro ainda e vem sendo discutido no âmbito acadêmico e regulatório. Mas fato é que ele é consideravelmente menor do que o nível de transparência que a autoridade pode, e deve, exigir para assegurar que a distribuição do conteúdo se de forma a respeitar a finalidade informada aos usuários.

Por esse motivo, falar sobre transparência algorítmica deve exigir um certo cuidado do debate público. Caiu dentro do senso comum falar que o problema de crianças e adolescentes no espaço virtual poderia se resolver com regulação e transparência. Mas a regulação já existe e a obrigação de transparência também. Talvez a regulação ainda seja insuficiente em vários aspectos e a transparência sofra limitações a depender de quem é seu destinatário. Mas são medidas que já são implementadas no Brasil.

A dificuldade sobre a adultização exposta no vídeo de Felca é que a plataforma distribui conteúdos que, a priori, não são ilícitos. Ela pode interpretar que o usuário é sim um pedófilo, mas pode também interpretar que o usuário é um pai de menina buscando atividades para sua filha; ou uma mãe buscando inspirações de roupa; ou um adulto que promove eventos infantis. Exigir conhecimento sobre como a distribuição do conteúdo acontece aqui não é necessariamente o que resolve o problema, porque é indiferente, ao menos em certa medida, qual critério a plataforma utilizou para direcionar aquele conteúdo.

Também não é propriamente solução criminalizar o algoritmo das plataformas por distribuir conteúdo com base nos interesses e curtidas dos usuários. O mercado de dados é um mercado legítimo e sua essência de funcionamento envolve a análise das informações e dos interesses dos usuários para selecionar conteúdo e distribuí-lo.

Isso não quer dizer que não devam exigir uma série de cuidados adicionais que ainda não são tomados para evitar que redes de pedofilia se multipliquem nos ambientes virtuais.

O próprio Felca dá vários exemplos: são gifs e toda uma linguagem específica que são utilizados por membros dessa rede criminosa que podem ser coibidos; são usuários que apresentam atividade destoante e que podem ter seus perfis suspensos para melhor avaliação; ou até ter o algoritmo modificado por design próprio para evitar que conteúdos envolvendo menores cheguem até determinados usuários que exploram excessivamente pesquisas envolvendo conteúdos de menores.

Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA

Mas o que resolve o problema em uma ponta efetiva é retomar o primeiro ponto que trouxe neste artigo: não postar fotos de menores nas redes sociais. Em nenhuma circunstância. Para além de todo um debate importante sobre imagem digital e proteção dos dados de crianças, evitar que imagens de seus filhos e sobrinhos circulem nas redes e sejam distorcidas e manipuladas é uma das melhores saídas para se manter distante das redes de pedofilia.

Novamente, é importante destacar que essa é apenas uma das pontas do debate. Questões como controle parental; limite de idade para uso; nível de coleta de dados de menores; plataformas direcionadas para crianças, dentre outros, são aspectos adicionais que deixam a discussão cada vez mais sofisticada.

O propósito aqui é apenas refletir que a exigência genérica por transparência algorítmica, em certos casos, desconsidera que ela já pode ser exigida das autoridades quando a circunstância autorizar, mas que não é efetivamente o que vai resolver situações problemáticas, como aquelas envolvendo crianças e adolescentes que têm seus vídeos distorcidos e explorados por criminosos.

Generated by Feedzy