O conceito de “capitalismo de vigilância” virou personagem frequente no debate público brasileiro sobre plataformas digitais: é citado em conferências e seminários, discursos de juízes do STF e STJ, e até em projetos de lei. No campo acadêmico, o Google Scholar aponta que pelo menos 70 papers foram publicados nos últimos dois anos usando a expressão em suas palavras-chave.
O conceito é popular e retoricamente poderoso, mas será que explica bem o que está em jogo na regulação das plataformas? Embora as críticas ao “capitalismo de vigilância” não sejam novas no debate internacional, elas ainda são raras e pouco articuladas no Brasil, sobretudo no campo jurídico.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Este artigo não pretende propor um modelo teórico substituto, mas abrir um diálogo, tensionando um conceito à luz de evidências alternativas e de dilemas concretos da regulação de plataformas.
Sobre o conceito
Embora o termo “capitalismo de vigilância” tenha aparecido em 2014 em papers de outros autores, a professora Shoshana Zuboff, de Harvard, o popularizou a partir de 2018 com seu livro homônimo, definindo-o como “uma nova forma de mercado e uma lógica específica de acumulação capitalista”.
Zuboff identifica quatro características principais nessa lógica: (i) a extração e análise contínua de dados, (ii) contratos baseados em monitoramento computacional, (iii) a personalização de serviços digitais, e (iv) a experimentação contínua com usuários. Na visão da autora, o capitalismo de vigilância se apropria da experiência humana como matéria-prima gratuita, convertendo-a em dados comportamentais. Parte desses dados melhora produtos, enquanto o restante torna-se um excedente comportamental transformado em produtos que geram lucros para as empresas de tecnologia.
Zuboff possui trajetória acadêmica consolidada: antes de seu best-seller, já era reconhecida por pesquisas sobre os impactos da tecnologia no ambiente de trabalho. Particularmente na área de proteção de dados pessoais, sua perspectiva contribuiu significativamente para o desenvolvimento de um pensamento crítico sobre tecnologias, criando um conceito com poder de mobilização tanto acadêmica quanto política.
Por outro lado, seu trabalho também tem sido alvo de escrutínio por diferentes especialistas nos últimos anos. No contexto específico da regulação de plataformas, aponta-se hoje que o conceito se mostra mais retórico do que estrutural.
Não é ruptura, é intensificação
É preciso cuidado para que cada novo conceito ou nova tecnologia não pareça “sem precedentes”, “revolucionária”, “disruptiva” — argumentos que alimentam tanto utopias quanto distopias tecnológicas e que, em comum, ancoram-se em um determinismo tecnológico simplista.
Embora Zuboff apresente o “capitalismo de vigilância” como uma mutação inédita do sistema econômico, o uso de dados para controle, segmentação e antecipação de comportamentos já era central muito antes da internet — um exemplo é a segmentação comportamental em bancos de dados que existe pelo menos desde o fim do século 19, especialmente com o papel dos bureaus de crédito.
Essa visão histórica é um ponto de crítica relevante e comum a diferentes lados do debate:
para autores de linha marxista, o conceito de Zuboff é insuficiente para caracterizar uma mudança sistêmica, já que mecanismos capitalistas fundamentais, como acumulação, alienação e exploração, ainda são os mesmos;
essa é a mesma linha de alguns autores extremamente críticos às plataformas, como Evgeny Morozov, que destacam que o problema não é o “capitalismo de vigilância”, mas o capitalismo como um todo: se há alguma novidade, está na escala e na sofisticação técnica, não na lógica em si.
estudos partindo de visões liberais também criticam essa insuficiência, apontando que Zuboff subestima o papel da escolha do consumidor e da competição de mercado, enquanto superestima a real capacidade das plataformas digitais de prever e controlar o comportamento do usuário.
A ausência de validação empírica
Além disso, um estudo recente publicado na revista First Monday revisou sistematicamente 486 artigos acadêmicos que se baseiam no conceito de “capitalismo de vigilância”, notando um número baixo de estudos empíricos e de dados robustos.
Ou seja, a hipótese central de Zuboff — de que as plataformas conseguem efetivamente “instrumentalizar o comportamento” humano — ainda carece de uma validação robusta capaz de sustentar sua generalização estrutural como base para regulação.
É verdade que parte do desafio de promover mais pesquisas empíricas está justamente no fato do acesso a dados das plataformas, que permitiriam validar, ou refutar, as hipóteses como a de Zuboff. Mas vale também lembrar que esse não é apenas um problema “algorítmico” — é uma demanda institucional muito mais ampla.
Desde a crise de 2008, a transparência corporativa tornou-se não só uma demanda social, mas uma ferramenta regulatória amplamente discutida globalmente. Há grande adesão pública, independente de posicionamento político, por maior transparência sobre práticas empresariais, impacto ambiental, políticas salariais e responsabilidade social. A agenda ESG é parte disso.
Em outras palavras, a demanda por transparência é um problema não só do setor de tecnologia, mas de toda a economia de mercado moderna.
Conclusão: como isso afeta a regulação das plataformas?
Reconhece-se que conceitos como “capitalismo de vigilância” têm valor estratégico: ajudaram a inserir temas como accountability e poder informacional na agenda pública brasileira. Mas o risco aqui é classificar todas as práticas digitais em um mesmo guarda-chuva, o que dificulta a construção de instrumentos jurídicos proporcionais e tecnicamente adequados.
Quando decisões como a do Tema 987 do STF (que julgou o artigo 19 do Marco Civil) misturam moderação de conteúdo, responsabilidade civil, publicidade digital, marketplaces e transparência sob um mesmo diagnóstico, o resultado são propostas que não distinguem entre diferentes tipos de riscos, agentes regulados e medidas cabíveis.
O mesmo ocorre em discussões sobre inteligência artificial, onde algoritmos de recomendação de filmes, sistemas de crédito bancário e ferramentas de reconhecimento facial são tratados como manifestações equivalentes de um mesmo fenômeno “vigilante”. Essa generalização impede que a regulação calibre obrigações, sanções e salvaguardas de acordo com o potencial de dano específico de cada prática.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Claro que há uma racionalidade mais ampla que conecta essas práticas, mas a regulação eficaz exige segmentar essa totalidade. Políticas públicas eficazes exigem diagnósticos granulares, capazes de distinguir sintomas, causas e efeitos em contextos específicos, e desagregá-lo em partes reguláveis, com foco em proporcionalidade e capacidade institucional. Isso não significa despolitizar o debate, mas permitir que ele tenha consequência institucional efetiva, seja no Judiciário, no Executivo, nas agências reguladoras ou no Congresso.
Pode parecer decepcionante ouvir que não há um conceito único que resolve o problema da regulação digital e que o trabalho regulatório exige análises por setor, por prática, por função específica.
Mas é assim que sistemas complexos são efetivamente regulados, e é assim que se devemos construir accountability real.