“Privacidade é o oxigénio da liberdade; sem ela, respiramos vigilância.” Esta metáfora inquietante resume a encruzilhada ética e política em que nos encontramos em 2025. O debate sobre a erosão da privacidade intensificou-se num mundo em que tecnologias digitais, inteligência artificial e infraestruturas de monitorização omnipresentes convergem numa paisagem marcada pela vigilância constante. Se outrora a privacidade era um direito inalienável, hoje parece ser uma moeda de troca para conveniência, segurança e personalização algorítmica. O que está em jogo é mais do que dados: é a essência da liberdade.
As democracias modernas, historicamente construídas sobre os pilares da autonomia individual, enfrentam hoje uma nova normalidade. O apagão europeu de abril de 2025, desencadeado por ciberataques maciços a infraestruturas críticas, demonstrou a vulnerabilidade da sociedade digital. Este evento catalisador reforçou a necessidade de vigilância reforçada, promovendo o uso de tecnologias intrusivas em nome da proteção coletiva. Câmaras inteligentes com reconhecimento facial, sensores urbanos e dispositivos móveis tornaram-se elementos invisíveis, mas constantes do espaço público e privado. De forma quase impercetível, a exceção tornou-se norma.
Zuboff (2019) cunhou o termo “capitalismo de vigilância” para descrever o modelo económico que sustenta esta transformação. Ao longo de 2024 e 2025, este conceito revelou-se mais atual do que nunca: os dados pessoais tornaram-se ativos valiosos, recolhidos silenciosamente por plataformas digitais que transformam comportamentos em previsões lucrativas. Trata-se de uma lógica que mercantiliza a vida quotidiana, convertendo ações banais — cliques, localizações, preferências — em oportunidades de mercado. Segundo a OECD (2024), os dados são hoje o novo petróleo, mas sem a mesma regulamentação, transparência ou consenso social sobre os seus limites.
No domínio do estado, a vigilância deixou de ser exclusiva de regimes autoritários. O European Data Protection Board (2024) indica que 70% das cidades europeias já operam sistemas de videovigilância equipados com inteligência artificial. Embora a segurança pública seja a principal justificação, o que se observa é um alargamento silencioso da capacidade de vigilância governamental. A fronteira entre proteção e intrusão está cada vez mais esbatida, colocando em risco liberdades civis fundamentais. A UNESCO (2025) alerta que, mesmo em democracias estáveis, a vigilância pode ser instrumentalizada para fins de controlo social.
Lyon (2025) sustenta que a vigilância se tornou culturalmente normalizada. A sua investigação revela que grande parte da população jovem já aceita a monitorização digital como parte integrante da vida quotidiana, desde que recompensada com acesso a serviços personalizados e rápidos. Esta aceitação reflete um tipo de resignação coletiva, em que o direito à privacidade é gradualmente substituído por expectativas de conveniência. Preferimos, cada vez mais, o conforto algorítmico ao anonimato incómodo.
Paralelamente, a ascensão da inteligência artificial adiciona uma nova dimensão à vigilância: a algoritmia. Richards et al. (2025) demonstram que sistemas de policiamento preditivo estão já a influenciar decisões judiciais em países desenvolvidos. A vigilância deixa, assim, de ser meramente visual ou física — torna-se invisível, incorporada em códigos opacos, alimentada por dados históricos enviesados. Trata-se de um novo tipo de poder: técnico, silencioso e muitas vezes inquestionável.
Investigar estas dinâmicas requer mais do que uma análise técnica. Por isso, este artigo baseia-se numa revisão narrativa qualitativa, integrando estudos científicos e relatórios de instituições internacionais (ScienceDirect, Springer, Sage, OECD, UNESCO, EDPB, ONU). O objetivo não é apenas descrever fenómenos, mas compreender os paradoxos que sustentam a aceitação social da vigilância. Num mundo onde vigiar é sinónimo de prever, controlar e manipular, urge questionar: estamos conscientes do que estamos a perder?
A primeira ilusão a desmontar é a da escolha. A maioria dos utilizadores aceita “termos e condições” sem os ler. Autorizamos aplicações a aceder ao microfone, localização, contactos e até ao ritmo cardíaco — não por ignorância, mas por cansaço. A privacidade converteu-se numa moeda invisível, gasta em microtransações diárias de conveniência. A adesão a este modelo não é plenamente voluntária, mas moldada por arquiteturas digitais que minimizam o desconforto de ser vigiado.
A tensão entre segurança e liberdade acentuou-se em momentos de crise — pandemias, terrorismo, desastres tecnológicos. Nestes contextos, a vigilância é apresentada como um mal necessário. No entanto, a normalização desta vigilância raramente é revertida. A lógica do “se nada tens a esconder, não tens de ter medo” dilui a perceção da privacidade como direito e instala uma cultura de conformismo digital. A UNESCO (2025) alerta para este perigo: a erosão de direitos fundamentais começa na indiferença coletiva.
Outro fator determinante é o geracional. Martins et al. (2025) demonstram que há uma clivagem clara entre faixas etárias: enquanto os mais jovens veem a vigilância como inevitável ou mesmo benéfica, os mais velhos encaram-na como ameaça à autonomia. Esta diferença não é apenas sociológica, mas política: o futuro da privacidade poderá ser decidido por quem já nasceu numa realidade onde tudo é monitorizado, arquivado e analisado. Para estas gerações, a vida sem vigilância é quase inimaginável.
O verdadeiro perigo reside na naturalização do controlo. Quando deixamos de nos incomodar por sermos vigiados, a vigilância cumpre o seu objetivo máximo: ser aceite, invisível e indiscutível. A privacidade passa a ser um anacronismo, uma nostalgia de tempos analógicos. Já não somos cidadãos no sentido clássico, mas objetos de análise em sistemas automatizados de gestão social. O espaço livre de observação tornou-se exceção.
A vigilância, enquanto instrumento de poder, atua de forma transversal. Em regimes autoritários, serve para reprimir dissidência. Em democracias, para antecipar crises e otimizar recursos. Em ambos os casos, o efeito é o mesmo: a monitorização constante torna-se indispensável ao funcionamento do Estado e da economia. O poder deixa de emanar apenas das instituições formais e passa a residir nas mãos invisíveis de quem detém os algoritmos.
O dilema ético que se impõe não é técnico, mas profundamente humano. A questão não é se podemos viver sem vigilância, mas se ainda queremos. Como sugerem Richards et al. (2025), talvez tenhamos ultrapassado o ponto de não retorno. Habituámo-nos à comodidade da vigilância, ao ponto de preferirmos serviços personalizados ao desconforto da liberdade plena. A ética da liberdade foi gradualmente substituída pela economia da conveniência.
Conclui-se, assim, que o fim da privacidade não aconteceu por decreto, mas por erosão progressiva. Cada clique, cada sensor, cada algoritmo contribuiu para o desaparecimento lento, mas constante, da nossa esfera íntima. Em 2025, viver sem vigilância é quase impossível: no espaço urbano, no local de trabalho, nos hospitais ou durante o lazer, somos constantemente observados, registados e interpretados. A vigilância tornou-se a nova norma social.
O maior desafio, portanto, não é impedir a vigilância, mas resgatar a consciência crítica sobre ela. A aceitação passiva transforma-nos em cúmplices do nosso próprio controlo. Se a liberdade se define pela possibilidade de escapar ao olhar do poder, então corremos o risco de perder não só a privacidade, mas o próprio coração da democracia. A resposta a este dilema é urgente: ou revalorizamos a privacidade como bem coletivo, ou assumimos que a era da liberdade cedeu definitivamente à era da vigilância.
Referências Bibliográficas
European Data Protection Board. (2024). Annual Report on Data Protection in the EU. Brussels: EDPB.
Lyon, D. (2025). Surveillance Culture: Normalising the Gaze in Digital Societies. London: Sage.
Martins, C., Pereira, M., & Silva, A. (2025). Generational attitudes towards surveillance and digital freedom in Europe. Journal of Digital Society, 12(1), 34–52.
OECD. (2024). Data as the New Oil? Privacy, Economics and Regulation. Paris: OECD Publishing.
Richards, N., Smith, H., & Zhao, L. (2025). Algorithmic Surveillance and Predictive Policing: Risks for Justice Systems. Artificial Intelligence & Law, 33(2), 199–218.
UNESCO. (2025). Global Ethics Report on AI and Privacy. Paris: UNESCO.
Zuboff, S. (2019). The Age of Surveillance Capitalism. New York: PublicAffairs.