Vivemos imersos num oceano digital. Redes sociais e aplicativos permeiam nossas rotinas, prometendo conexão, conveniência e entretenimento. Contudo, sob esta superfície aparentemente benigna, operam forças poderosas e subtis que redefinem o próprio conceito de "normalidade". Os algoritmos que governam estas plataformas não são meros códigos neutros; são os arquitetos e executores de um novo regime de normalização, uma versão digital e amplificada das técnicas de poder disciplinar analisadas por Michel Foucault. Estes sistemas, impulsionados pela lógica do Capitalismo de Vigilância, funcionam como um mecanismo omnipresente de vigilância, sanção e exame, construindo e reforçando normas sociais de forma invisível e moldando ativamente o comportamento individual e os valores coletivos.
A primeira pedra angular deste edifício digital é a Vigilância 2.0, uma materialização do Panóptico foucaultiano em escala global e participativa. Foucault descreveu o Panóptico como uma estrutura onde a possibilidade constante de ser observado internalizava a disciplina. Hoje, essa possibilidade tornou-se uma certeza difusa. Cada clique, cada like, cada busca, cada movimento geolocalizado, cada mensagem trocada é meticulosamente registada e armazenada. Plataformas como Meta (Facebook, Instagram), Google (YouTube, Search, Maps), TikTok e inúmeros outros aplicativos transformaram nossos dispositivos em postos de vigilância permanentes. Mais insidiosamente, tornámo-nos agentes voluntários dessa vigilância. Ao partilharmos detalhes das nossas vidas, curarmos as nossas imagens e observarmos os outros, alimentamos a máquina e construímos as paredes da nossa própria "prisão" digital. Como argumenta Shoshana Zuboff, este "excedente comportamental" não é um subproduto; é a matéria-prima essencial do Capitalismo de Vigilância, que transforma a experiência humana em dados a serem processados e vendidos.
A segunda técnica, a Sanção Normalizadora 2.0, é personificada pelo algoritmo como juiz implacável. Foucault descreveu como as instituições usavam um sistema de micro-penalidades e recompensas para corrigir desvios da norma. No ecossistema digital, os algoritmos desempenham esse papel com uma eficiência e alcance sem precedentes. Eles funcionam como "gatekeepers" da visibilidade e da validação social. O feed de notícias que vemos, as sugestões de amizade, os vídeos recomendados, os "matches" em aplicativos de namoro – tudo é mediado por algoritmos que nos medem contra normas opacas. Comportamentos que se alinham com os objetivos da plataforma (gerar engajamento, manter o utilizador online, facilitar o consumo) são recompensados com "likes", partilhas, maior alcance e validação social. Comportamentos desviantes ou "não engajadores" são punidos com a invisibilidade. Esta sanção é agravada pelo viés algorítmico: preconceitos sociais existentes (raciais, de género, económicos) são frequentemente codificados nestes sistemas, perpetuando e "normalizando" a desigualdade sob um verniz de objetividade técnica. Ser "normal", neste contexto, significa ser algoritmicamente palatável.
Finalmente, o Exame 2.0 manifesta-se como um dossiê digital perpétuo e dinâmico. O exame foucaultiano transformava o indivíduo num "caso" objetivo, um objeto de conhecimento e poder. Hoje, cada um de nós é um "caso" em constante construção. Nossos perfis digitais, ou "data doubles", são agregados de vastas quantidades de dados que pretendem não apenas descrever quem somos, mas, crucialmente, prever e modificar nosso comportamento futuro. Este exame contínuo alimenta os mercados de futuros comportamentais, onde nossa atenção e nossas ações são vendidas a anunciantes, atores políticos e outros interessados. A classificação e o julgamento são constantes, e as normas contra as quais somos medidos são definidas pelos interesses comerciais das plataformas, muitas vezes sem nosso conhecimento ou consentimento. A autonomia individual é corroída à medida que somos subtilmente "empurrados" (nudged) em direções que servem a esses interesses, confundindo nossos próprios desejos com as sugestões algorítmicas.
Este regime digital fomenta inevitavelmente uma cultura de auto-normalização e performance. A busca pela validação, traduzida na moeda dos likes e seguidores, incentiva os utilizadores a policiar suas próprias identidades online, apresentando versões idealizadas e conformes de si mesmos. A autenticidade torna-se um risco, e a performance da "normalidade" – ou de uma "anormalidade" esteticamente aceitável – torna-se uma segunda natureza, gerando ansiedade, comparação social e uma frágil autoestima dependente de métricas externas.
Em conclusão, os algoritmos das redes sociais e aplicativos representam uma das mais poderosas forças de normalização da história humana. Eles operam como um sistema foucaultiano turboalimentado, onde a vigilância é omnipresente e participativa, a sanção é algorítmica e instantânea, e o exame é perpétuo e preditivo. Ao moldarem o que vemos, o que sentimos e como agimos, eles não apenas refletem a realidade social, mas a constroem ativamente, definindo os contornos mutáveis do que significa ser "normal". Enfrentar este desafio exige mais do que meras atualizações de software ou configurações de privacidade; exige uma literacia digital crítica, uma consciência aguçada das dinâmicas de poder em jogo e, talvez, a coragem coletiva de imaginar e construir espaços digitais que valorizem a diversidade humana em vez de a normalizarem em prol do lucro.
Deseja que eu leve isso ainda mais longe, explorando as formas de resistência a esta normalização algorítmica, focando no impacto psicológico específico em diferentes grupos, ou talvez transformando isso num plano prático para aumentar a consciência e a literacia digital?
Comentários