ISSN 2674-8053 | Receba as atualizações dos artigos no Telegram: https://t.me/mapamundiorg

Tecnologia, vigilância e controle social: o dilema do progresso

A promessa de que a tecnologia digital promoveria liberdade, transparência e inclusão foi, em boa medida, substituída por uma realidade marcada por vigilância difusa, controle de comportamento e poder algorítmico. A expansão da inteligência artificial, a coleta massiva de dados, os sistemas automatizados de decisão e as novas formas de censura e modulação de discurso compõem uma arquitetura de controle sem precedentes, cujos efeitos se manifestam tanto em democracias quanto em regimes autoritários. Mais do que uma revolução técnica, trata-se de uma transformação estrutural na forma como o poder é exercido, distribuído e legitimado no século XXI.

Em regimes autoritários, como China, Irã e Emirados Árabes Unidos, o uso de tecnologias de vigilância digital é explícito e institucionalizado. O sistema de crédito social chinês, por exemplo, vincula o comportamento online e offline dos cidadãos a benefícios ou punições sociais e econômicas. Câmeras com reconhecimento facial monitoram espaços públicos, enquanto plataformas digitais são censuradas e filtradas para garantir a estabilidade do regime. Nesses contextos, a tecnologia é incorporada como ferramenta de governança, consolidando um modelo de soberania digital centralizada que opera tanto na prevenção quanto na punição.

No entanto, os mecanismos de controle digital não se limitam a regimes autoritários. Em democracias liberais, a vigilância ocorre de forma mais sutil, muitas vezes mediada por empresas privadas que coletam, armazenam e comercializam dados comportamentais. Plataformas como Google, Facebook, Amazon e TikTok operam modelos de negócios baseados na predição e influência de escolhas individuais. Seus algoritmos não apenas analisam comportamentos passados, mas moldam preferências futuras, criando ambientes digitais onde a autonomia dos usuários é constantemente modulada. A própria arquitetura das redes sociais prioriza conteúdos que geram engajamento emocional, contribuindo para a polarização e dificultando o diálogo democrático.

O controle sobre o discurso é um dos aspectos mais sensíveis dessa nova realidade. Em nome da moderação de conteúdo e do combate à desinformação, plataformas privadas assumem funções de censura que antes cabiam exclusivamente ao Estado. Essa delegação informal do poder de decidir o que pode ou não circular publicamente afeta o próprio conceito de liberdade de expressão. Casos como o banimento de contas políticas em redes sociais durante processos eleitorais nos Estados Unidos ou na Nigéria, a moderação seletiva de conteúdos sobre Palestina, Ucrânia ou Taiwan e o apagamento de vozes dissidentes nas grandes plataformas revelam um cenário onde a liberdade de expressão passa a ser gerida por corporações transnacionais que respondem a interesses geopolíticos diversos.

A inteligência artificial intensifica esse cenário ao ser incorporada como ferramenta de predição e automação de decisões. Algoritmos são usados para avaliar riscos criminais, conceder créditos, selecionar currículos e até identificar “ameaças potenciais” em redes sociais. Esses sistemas operam com base em bancos de dados muitas vezes enviesados, reproduzindo desigualdades estruturais sob a aparência de neutralidade técnica. A opacidade dos algoritmos — frequentemente protegidos por segredos comerciais — impede qualquer controle social efetivo sobre suas decisões. Isso cria uma zona de irresponsabilidade, onde o poder é exercido sem accountability e onde os afetados por decisões automatizadas não têm como recorrer.

As implicações desse novo arranjo são profundas. Em sociedades democráticas, a multiplicação de tecnologias de vigilância e predição fragiliza os princípios de privacidade, autonomia e participação. Em vez de ampliar a capacidade dos cidadãos de se informar e decidir, muitas tecnologias digitais acabam por aprisioná-los em bolhas comportamentais e redes de influência invisíveis. Em contextos autoritários, a digitalização do controle estatal dá nova sofisticação à repressão, reduzindo o espaço de ação para dissidência e organização social.

O dilema do progresso não está na tecnologia em si, mas nos modelos políticos, econômicos e normativos que a organizam. O que está em disputa não é apenas a eficiência dos sistemas digitais, mas os valores que os orientam. A soberania sobre os dados, a transparência dos algoritmos, o controle público sobre as infraestruturas digitais e a garantia de direitos no ciberespaço são questões centrais para qualquer projeto democrático no século XXI. A arquitetura digital global é hoje tão relevante quanto a constitucionalidade das instituições.

Nesse contexto, experiências de resistência e alternativas começam a emergir. Na União Europeia, regulações como o GDPR e a proposta de Lei de Inteligência Artificial buscam impor limites ao uso de dados e algoritmos. Em Gana, iniciativas locais de alfabetização digital visam fortalecer o uso cidadão da tecnologia. Na Índia, debates sobre soberania digital ganham corpo em meio ao avanço das big techs. E na Coreia do Sul, movimentos civis reivindicam maior controle sobre o uso de dados biométricos em espaços públicos. Essas experiências mostram que, embora o poder algorítmico avance, ele não é inevitável nem unidirecional.

O desafio não é conter o progresso, mas politizá-lo. A tecnologia deve ser disputada enquanto campo de poder e não apenas celebrada como ferramenta. O que está em jogo é a própria forma de viver em sociedade: se o futuro digital será espaço de ampliação de direitos ou um laboratório de controle social. A resposta a essa questão dependerá da capacidade coletiva de compreender, regulamentar e transformar as infraestruturas invisíveis que hoje governam nossas vidas.