Mark J. Whitehead, Esquerda.net, 13 de junho de 2020
A participação social e a eficácia individual não devem exigir o sacrifício da [...] nossa autonomia, dos nossos direitos de decisão, da nossa privacidade e, na verdade, da nossa natureza humana. S. Zuboff, The Age of Surveillance Capitalism (2019, p. 347).
O contexto
A relação entre tecnologia e liberdade humana tem sido sempre contestada e instável. A tecnologia tem sido fundamental para a libertação dos seres humanos de várias formas de trabalho. Tem estado também associada a uma perda de autonomia e ao poder de controlar os nossos destinos. Na sua palestra "A questão da tecnologia", Heidegger sugeriu que a tecnologia (definida em termos gerais) representava, talvez, o maior fator limitativo da capacidade humana de experienciar livremente o mundo. Não devia ser surpresa que a tecnologia se tornasse um tema de debate tão proeminente em relação à crise da covid-19.
É difícil recordar - pelo menos desde que há memória - um acontecimento que tenha afetado de tal forma as liberdades quotidianas das pessoas em todo o mundo. O confinamento social restringiu a nossa liberdade de circulação, a nossa capacidade de reunião e convívio, e mesmo o exercício físico que podemos fazer. Estas violações da liberdade não são, evidentemente, incompatíveis com a tradição política liberal (onde a liberdade pessoal pode ser restringida a fim de evitar danos aos outros). No entanto, as quarentenas em massa levaram a comícios e protestos anti-confinamento, que procuraram (por muito disparatados que fossem) reafirmar as liberdades das pessoas.
As tecnologias digitais já serviram para limitar os impactos do confinamento em massa e preservar certos elementos da liberdade pessoal. Apesar das recentes sugestões de que as plataformas de redes sociais podem estar a ultrapassar um limiar entre a sua utilidade social e os seus custos, elas fornecem agora uma forma indispensável de nos mantermos ligados enquanto isolados (de facto, a Marketwatch relatou que as videochamadas diárias no WhatsApp do Facebook e nas aplicações Messenger duplicaram durante o mês de Março, atingindo níveis normalmente apenas observados na véspera de Ano Novo. Em Itália, os níveis globais de utilização do Facebook aumentaram cerca de 70%). Ao mesmo tempo, o Zoom, a Microsoft Teams e o Skype permitiram a muitos de nós continuar o nosso trabalho. E, para tantos, incluindo a minha família, o confinamento sem Netflix e Amazon Prime seria impensável.
Agora, porém, há um grande interesse no papel que a tecnologia digital pode desempenhar para nos libertar fisicamente do isolamento. Este interesse tem sido, em parte, estimulado pelas técnicas digitais que têm sido utilizadas para monitorizar e controlar a propagação do novo Coronavírus em locais como a China, Singapura e Coreia do Sul. Em Singapura, a aplicação TraceTogether utiliza a tecnologia Bluetooth para permitir que aqueles que entraram em contacto com alguém que tem o Covid-19 (embora involuntariamente) sejam imediatamente alertados [1]. Entretanto, na China, os cidadãos são agora obrigados a passar o código QR do governo, que determina a sua provável exposição ao Coronavírus. A classificação de risco produzida por este código é então utilizada para determinar se alguém pode entrar num espaço público ou utilizar transportes públicos.[2] Dado o aparente sucesso destas iniciativas digitais, os Estados europeus mostram-se muito interessados na implementação de aplicações de localização de contactos e de sistemas de alerta digitais.[3] É no contexto desta exigência que a Google e a Apple têm vindo a colaborar em software que permita que as aplicações de localização de contactos possam funcionar em todos os sistemas operativos dos seus telefones. A Bloomberg noticiou recentemente que o ministro francês Cedric O tinha pedido à Apple que flexibilizasse as suas definições de privacidade para permitir a partilha de dados de localização de contactos com as autoridades de saúde pública (atualmente a Apple não permite que as suas funções Bluetooth funcionem segundo plano caso os dados produzidos saiam do aparelho.
Parece que outros países podem vir a utilizar formas digitais de vigilância social de formas ligeiramente diferentes. No Reino Unido, por exemplo, o governo parece estar disposto a utilizar uma aplicação governamental (aparentemente desenvolvida em ligação com o serviço de inteligência GCHQ) que fornecerá um índice centralizado da interação social[4]. Embora este sistema pareça evitar os receios associados ao envolvimento das empresas no rastreio de contratos, ele trará os seus próprios perigos e limitações. Refletindo sobre o sistema proposto no Reino Unido, a Professora Lilian Edwards observa que "existe um risco intrínseco na construção de qualquer tipo de registo centralizado do movimento de toda a população que possa ser retido de alguma forma para além da pandemia"[5]. Entretanto, nos EUA, a NBC relata que tem havido interesse do governo na implementação de sistemas de reconhecimento facial para monitorizar as interações sociais. Utilizando câmaras públicas, imagens disponíveis online e tecnologia de reconhecimento facial digital, um sistema deste tipo significaria que mesmo aqueles que não instalem uma aplicação de rastreio de contactos sociais poderiam ser monitorizados para uma provável exposição ao Coronavírus. O suposto interesse dos EUA na tecnologia de reconhecimento facial é talvez o desenvolvimento que mais nos devia fazer parar para pensar. A tecnologia de reconhecimento facial tem sido vista desde há muito como o desafio decisivo na batalha entre a liberdade pessoal e a vigilância digital [6].
Quando se juntam todos estes desenvolvimentos, é fácil perceber por que razão estão a surgir tensões entre a capacidade física de se libertar do confinamento e as preocupações de privacidade a longo prazo sobre o direito a estar livre de vigilância. Dado o rápido ritmo de mudança neste domínio, compreende-se a dificuldade de avaliar as implicações a curto e longo prazo destas soluções digitais. E parece haver sem dúvida o perigo de sermos todos arrastados para um vórtice consensual de solucionismo tecnológico [7]. Uma amostra do que pode estar aqui em jogo é, talvez, assinalada com maior clareza no recente relatório das Nações Unidas sobre as implicações da pandemia nos direitos humanos. A ONU sugere que a utilização da Inteligência Artificial e dos big data para combater a covid-19 pode ameaçar os direitos humanos a nível mundial[8]. Além disso, a ONU manifesta preocupação com a possibilidade de as técnicas de vigilância de dados utilizadas no âmbito da actual crise se venham a normalizar no futuro.
Com as apostas tão altas e com tão pouco tempo para gerir os vários riscos que devem ser equilibrados, seria útil que tivéssemos uma teoria pronta-a-servir para nos ajudar a avaliar o que devemos fazer. O mais interessante é que já a temos: é a teoria do capitalismo de vigilância.
Capitalismo de vigilância - Lições para o Covid-19
A ideia do capitalismo de vigilância foi desenvolvida pela professora norte-americana Shoshana Zuboff. No seu livro "The Age of Surveillance Capitalism" de 2019, Zuboff descreve-a como "uma nova ordem económica que reivindica a experiência humana como matéria-prima livre para práticas comerciais escondidas de extração, previsão e vendas" (uma revisão detalhada do livro está disponível aqui). [9] Num contexto mais grave, ela prossegue afirmando que o capitalismo de vigilância é uma "mutação nociva do capitalismo marcada por concentrações de riqueza, conhecimento e poder sem precedentes na história da humanidade" [10] Em termos práticos, o capitalismo de vigilância significa a captura digital de ações humanas online, e cada vez mais offline, a fim de facilitar a exploração comercial desse comportamento. Enquanto sistema económico, a matéria-prima do capitalismo de vigilância é a experiência e o comportamento humano, expresso em formato digital. O capitalismo de vigilância depende, portanto, da crescente digitalização do conhecimento e da capacidade de captar o máximo possível desses dados. As operações comerciais associadas ao capitalismo de vigilância dependem da capacidade de prever as nossas necessidades de consumo (e de nos fornecer marketing direcionado) e de moldar ativamente as nossas decisões (como votar numa eleição ou num referendo). Quanto mais dados as empresas do capitalismo de vigilância, como a Alphabet Google e o Facebook, puderem acumular, mais exatas se tornarão as suas previsões, e mais poderosos serão os seus estímulos comportamentais.
Então, o que nos pode dizer o relato de Zuboff sobre o capitalismo de vigilância acerca das prováveis implicações do rastreio de contactos sociais digitais?
Lição 1: O capitalismo de vigilância tem um historial de aproveitamento de crises
Podemos identificar as origens do capitalismo de vigilância com os ataques terroristas de 11 de Setembro de 2001. Na sequência do 11 de Setembro, as autoridades estatais dirigiram-se aos gigantes tecnológicos emergentes para apoiarem programas de vigilância alargados. Com governos capazes de aceder à informação dos utilizadores em plataformas como o Google e o Yahoo, surgiu um interesse comum entre as grandes tecnológicas e o Estado na promoção da influência crescente destas plataformas. Se os governos exigiam uma vigilância digital em massa para sustentar os seus programas antiterrorismo, então precisavam de uma infiltração mais profunda da tecnologia digital na vida quotidiana (quer se trate da utilização da Internet, da Xbox ou dos telemóveis). Os estados de exceção em que as empresas de tecnologia operaram após o 11 de Setembro explicam em parte por que razão tais gigantes se revelaram tão difíceis de regular e controlar, mesmo após as fugas de informação da Snowden e o escândalo da Cambridge Analytica. Mas, claro, esta não é a única razão pela qual evitaram com êxito a regulamentação. As ligações políticas, os formatos extra-territoriais e os algoritmos e códigos ininteligíveis associados às grandes tecnologias têm servido para impedir uma regulação eficaz.
Se o estado de exceção resultante dos ataques terroristas de 11 de Setembro permitiu que os grandes impérios tecnológicos crescessem e escapassem à regulação, não poderia o Covid-19 introduzir um novo estado de exceção dentro do qual o capitalismo de vigilância pode aprofundar o seu poder e influência? Numa conversa recente entre Zuboff e Naomi Klein, foi sugerido que a crise atual poderia refletir uma fusão pouco saudável entre a doutrina do choque e o capitalismo de vigilância. Neste contexto, foi afirmado que o capitalismo de vigilância poderia, por um lado, oferecer parte da solução para a presente crise, e por outro aproveitar a crise para ampliar a sua influência e poder. Isto pode parecer hiperbólico. As grandes empresas tecnológicas, porém, dão-nos poucas razões para acreditar que, tendo alargado a sua intrusão, irão abdicar dos avanços que fizeram quando a crise passar. De facto, se a teoria do capitalismo de vigilância estiver correta, a lógica económica das grandes tecnológicas está prevista na própria resistência a qualquer recuo no acesso ao seu bem mais valioso - a experiência humana.
Lição 2: O capitalismo de vigilância dominou a arte da publicidade enganosa
Um tema recorrente no relato de Zuboff sobre o capitalismo de vigilância é a táctica da publicidade enganosa. Ele é usado por Zuboff para designar as várias práticas enganosas que são utilizadas pelas grandes empresas de tecnologia para garantir o acesso aos dados pessoais. Os principais iscos são os serviços isentos de taxas que tornam as nossas vidas muito mais fáceis. Estes iscos são muitas vezes complementados por promessas de privacidade e segurança de dados. As alterações ocorrem quando nos são apresentadas aquelas mudanças obscuras das condições de serviço, que prejudicam os padrões de privacidade. Outras mudanças podem ocorrer quando se revela, após a aquisição de alguma forma de tecnologia digital, que desativar a partilha de dados pode prejudicar a funcionalidade do produto.
Dizem-nos que as aplicações de rastreio de contactos virão com várias proteções de privacidade. Estas incluem cláusulas de caducidade que limitarão a recolha de dados ao período de crise da covid-19. Mas, como já foi referido, se a história do capitalismo de vigilância revela alguma coisa, é que uma vez obtido o acesso aos dados, raramente é abandonado. Através da hábil implementação de novas configurações padrão, características de funcionalidade e termos e condições complicados, não seria difícil para o capitalismo de vigilância manter o fluxo de dados de contacto social muito depois da crise da covid-19 ter passado. Talvez isto olhar com maus olhos as grandes empresas de tecnologia que, há que reconhecer, mudaram algumas das suas práticas à luz do novo coronavírus (veja-se a curadoria mais cuidadosa dos conteúdos e o apoio a fontes de confiança no Facebook). Mas a história do capitalismo de vigilância deve, no mínimo, tornar-nos vigilantes.
Lição 3: O que foi aprendido não pode ser desaprendido e continuará a moldar a utilização comercial e governamental dos dados pessoais no futuro.
Um assunto recorrente na discussão sobre aplicações de localização de contactos sociais é a garantia de que, quando as informações pessoais são acedidas e partilhadas, não serão permanentemente marcadas e armazenadas com o nome de qualquer cidadão identificável. Esta garantia sugere, mais uma vez, que a vigilância digital reforçada é apenas uma característica do estado de exceção que está associada à crise da covid-19, e não irá minar a privacidade pessoal a longo prazo. Mas esta garantia não reconhece a dinâmica social do capitalismo de vigilância. O capitalismo de vigilância e os seus sistemas associados de captura de dados em massa, algoritmos e aprendizagem mecânica estão previstos na identificação de padrões sociais em milhões, muitas vezes milhares de milhões, de pontos de dados. A aprendizagem que aqui ocorre é sempre, inevitavelmente, afastada de indivíduos identificáveis. Mas isto não invalida a sua ameaça à liberdade e autonomia pessoais. O reverso do sistema capitalista de vigilância ocorre quando a aprendizagem mecânica regressa ao utilizador final sob a forma de estímulos altamente personalizados à ação. O que as aplicações de localização de contactos fornecem é uma visão historicamente sem precedentes das interacções sociais. Quando combinado com outros dados digitais, como a produtividade do trabalho, os padrões de compra e a biometria, isto proporcionará uma visão sem paralelo do contexto social da acção humana. Saber o que os seres humanos fazem, ou não fazem, em determinados contextos sociais, ou quando entram em contacto com tipos específicos de pessoas, pode ser de grande valor comercial e governamental. Abrirá novas oportunidades para o que Zuboff designa por atuação comportamental: ou quando os dados sobre a conduta humana são utilizados como base para desencadear ações futuras (talvez um oportuno anúncio, resultado de pesquisa na Web ou incentivo na navegação).
O destino final do capitalismo de vigilância é um mundo onde as grandes tecnológicas nos conhecem melhor do que nós próprios. Tal situação promete tornar as nossas vidas mais cómodas (com buscas personalizadas na Web, impulsos digitais e definições otimizadas de termóstatos. Mas conhecer alguém melhor do que se conhece a si próprio depende do aprofundamento da recolha de dados a partir da experiência quotidiana. Os assistentes domésticos digitais, por exemplo, permitiram que o tom de voz se tornasse um ponto de dados do capitalismo de vigilância (suponho que todas as nossas recentes reuniões de videoconferência estão a revelar-se úteis também neste contexto), enquanto outras formas de computação ambiental procurarão fazer ferramentas de previsão comportamental a partir das expressões faciais, pressão sanguínea e até da marcha ou da postura. É evidente que qualquer que seja o objetivo inicial das aplicações de rastreio de contactos, elas irão inevitavelmente aumentar o poder de previsão das grandes tecnologias. Observar o que fazemos depois de entrarmos em contacto com certas pessoas pode prever mudanças no emprego e mesmo divórcios (é o que Alex Pentland descreveu como uma forma de física social). O problema com este tipo de situação é que perante a acumulação sem precedentes de conhecimento sobre nós próprios (ou pelo menos sobre os nossos equivalentes demográficos), torna-se cada vez mais difícil às pessoas resistir aos estímulos comportamentais do capitalismo de vigilância.
Muitos argumentarão que se as aplicações de rastreio de contactos forem geridas pelo governo, os nossos dados serão protegidos dos circuitos do capitalismo de vigilância. Isto pode ser verdade, e talvez, na sequência do Covid-19, ainda possamos ver formas de monopólio estatal de capitalismo de vigilância. Mas e se os dados agregados acabarem por ser vendidos como parte de um esquema de privatização do governo no futuro (não é propriamente uma situação inédita)? E se o nosso seguro de saúde ficar vinculado à utilização de aplicações de contacto comercial? E, na sequência do provável aparecimento de mercados de aplicações de rastreio de contatos, será que os sistemas governamentais desenvolvidos à pressa vão realmente derrotar os produzidos pela Google? Acho que vamos ter de esperar para ver.
Lição 4: Este momento pode ser um ponto fulcral na construção de uma sociedade instrumentalista
De acordo com Zuboff, o capitalismo de vigilância caracteriza-se por uma visão ideológica própria. Zuboff usa o termo instrumentalismo, um pouco desajeitado, para captar esta ideologia. Ao contrário do totalitarismo, o instrumentalismo não está interessado na laboriosa tarefa de dominar corações e mentes. Pelo contrário, é um sistema amoral que procura governar a sociedade como ela a encontra: incentivando os padrões benéficos identificados pelos grandes volumes de dados, enquanto subtilmente elimina as ações que considera prejudiciais. O instrumentalismo é uma espécie de ideologia binária que se rege com base na correlação apenas entre o que é observado e o que é desejado. Dentro desta visão da sociedade, não há espaço para teorias, apenas para a realidade observada digitalmente. Também não há espaço para ambiguidades, apenas a medida em que uma ação observada corrobora as regras estabelecidas. Um exemplo de instrumentalismo, a que Zuboff se refere frequentemente, é o hipotético carro inteligente, cujos motores são imediatamente desativados assim que uma apólice de seguro expira. Neste contexto, não existe qualquer espaço para apreciação, qualquer margem de manobra social. Não importa se o carro transporta alguém para o hospital ou contém uma mãe solteira com filhos a conduzir numa estrada deserta à meia-noite. Ao contrário dos sistemas humanos, que funcionam com ambiguidade e, por vezes, dão às pessoas o benefício da dúvida, os sistemas instrumentais só funcionam em 0 e 1s.
Evidentemente, numa situação de pandemia, pode dizer-se que uma forte dose de instrumentalismo é precisamente o que precisamos. Não importa as circunstâncias que o levaram a entrar em contacto próximo com um provável portador do novo coronavírus, apenas o que você tem. Mas não parece que as coisas serão assim tão simples. Para serem eficazes, as aplicações de rastreio de contatos têm de ser utilizadas por uma parte significativa da população. No Reino Unido há quem defenda agora que a utilização da aplicação do NHS é uma espécie de dever cívico. Embora não esteja a argumentar que a utilização desta aplicação não seja a coisa socialmente responsável a fazer, parece pouco provável que as aplicações de rastreio de contatos sociais sejam utilizadas apenas para monitorizar a transmissão de vírus. Parece provável que em muitos Estados a utilização de uma aplicação de rastreio de contatos sociais seja, ela própria, um requisito para ir a espaços públicos. Mas o que acontece quando se esquece de ligar o telemóvel, ou se o perde? Não é difícil imaginar situações em que os cidadãos serão algoritmicamente pontuados pela sua utilização da aplicação e o seu acesso ao espaço público decidido em conformidade (particularmente em contextos autoritários). É também possível imaginar um mundo onde aplicações e dispositivos móveis possam ser utilizados para monitorizar a eficácia do nosso distanciamento social no trabalho. A empresa Landing AI já tem promovido o seu detetor de distanciamento social, enquanto a Amazon está a utilizar tecnologia de vigilância dos trabalhadores nos seus armazéns. Se os patrões obrigarem à utilização de dispositivos de distanciamento social no trabalho, será que os trabalhadores serão classificados em função das suas competências para evitar o contacto próximo com outros? Se o forem, as lógicas instrumentalistas que muitas vezes andam a par com estas formas de tecnologia pouco se importarão com as circunstâncias humanas que podem exigir proximidade social, ou com a natureza do contacto.
O que as teorias do capitalismo de vigilância acabam por defender é que a utilização de tecnologias inteligentes de monitorização tende a resultar em sistemas instrumentalistas em que a confiança no julgamento humano é debilitada e a ambiguidade é eliminada. Embora a resposta à pandemia possa parecer requerer essa certeza, é preciso ter muito cuidado para garantir que estas formas de culturas tecnológicas não se tornem a norma no nosso futuro coletivo.
Voltar para o aqui e agora
Uma coisa é certa: as coisas estão a andar depressa. Enquanto escrevo isto, o Governo australiano está a utilizar a aplicação CovidSafe como parte da sua estratégia para acabar com o confinamento. Entretanto, no Reino Unido, uma aplicação governamental está a ser testada numa base da Royal Air Force, enquanto a Ilha de Wight foi identificada como o local de teste para a implementação mais vasta da tecnologia de localização de contactos (uma espécie de estudo em biografia digital da ilha). Entretanto, o Institute for Global Change de Tony Blair sugeriu que os perigos anti-liberais associados à aplicação de tecnologia inteligente são um preço que vale a pena pagar na luta coletiva contra o novo coronavírus. Ao mesmo tempo, porém, o Comité dos Direitos Humanos do Parlamento do Reino Unido propôs que qualquer implementação de tecnologias de rastreio de contatos sociais requer protocolos de privacidade de dados aperfeiçoados [11]. Ao mesmo tempo, cientistas e investigadores que trabalham na área da privacidade de dados e da cibersegurança escreveram cartas abertas expressando preocupações sobre o potencial arrastamento da missão associada às tecnologias de rastreio de contatos (ver aqui e aqui).
A tecnologia digital está a desempenhar um papel importante para permitir que as nossas vidas regressem a alguma forma de normalidade. Mas, embora em parte nos liberte do confinamento, é crucial estarmos conscientes do potencial antiliberal dessas tecnologias. Num recente projeto de pesquisa da Independent Social Research Foundation, tenho vindo a explorar os compromissos subtis que as pessoas fazem nas suas interações com a tecnologia inteligente. Parece que mesmo quando se obtêm ganhos relativamente menores com essa tecnologia, estamos dispostos a sacrificar formas significativas de privacidade pessoal. Dada a vontade inevitável das pessoas de escapar em segurança aos constrangimentos do confinamento, a vigilância é claramente necessária para que os direitos e a privacidade dos dados não sejam negligentemente postos de lado. Quando se trata de interações sociais com a tecnologia inteligente, é evidente que os ganhos tangíveis a curto prazo tendem sempre a triunfar sobre os vagos custos futuros. Mas, para além de um apelo à vigilância, é importante reconhecer que há aqui mais em jogo. Numa recente discussão em conferência online, Shosana Zuboff recordou-nos que as nossas preocupações em torno da emergência de uma espécie de "Covid-1984" não devem centrar-se principalmente na tecnologia. As questões mais profundas são a lógica económica e as instituições que determinam a forma como a tecnologia inteligente está a ser utilizada. Poderemos então imaginar a utilização da tecnologia digital para ajudar na crise do Covid-19 sem um imperativo capitalista de vigilância (ver aqui)? Ou será que podemos construir uma resposta tecnológica inteligente coletiva que esteja fora da influência institucional das grandes empresas de tecnologia? Se pudermos, há uma hipótese de vislumbrarmos um futuro tecnológico mais vasto que se destine principalmente a fins de utilidade pública e seja controlado por aqueles de cujos dados o sistema depende.
Artigo publicado em 11 de maio de 2020 no site do Independent Social Research Foundation. Traduzido por Luís Branco para o esquerda.net.
Mark Whitehead é Professor de Geografia na Aberystwyth University e autor do livro “Changing Behaviours: On the Rise of the Psychological State” (Edward Elgar, 2013).
Notas:
[1] R. Cellan-Jones, ‘Coronavirus: Privacy in a Pandemic,’ BBC 02-04-2020.
[2] S. Ghaffary, ‘What the US can learn from other countries using phones to track the spread of Covid-19’ Vox 18-04-2020 (https://www.vox.com/recode/2020/4/18/21224178/covid-19-tech-tracki…china-singapore-taiwan-korea-google-apple-contact-tracing-digital)
[3] See A. Hern, ‘France urges Apple and Google to ease privacy rules on contact tracing,’ The Guardian 21-04-2020.
[4] I. Sample, ‘NHS contact tracing app ready to use in three weeks, MPs told,’ The Guardian 28-04-2020.
[5] Quoted in ibid.
[6] J. Naughton, ‘Why we should be very scared by the intrusive menace of facial recognition,’ The Guardian, 29-07-2019.
[7] E. Morozov, ‘The tech ‘solutions’ for the coronavirus take the surveillance state to the next level,’ The Guardian, 15-04-2020.
[8] United Nations, Covid-19 and Human Rights: We are all in this together (United Nations, April 2020), p. 16.
[9] S. Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (London 2019: Profile Books), ix.
[10] Ibid.
[11] R. Syal, ‘UK contact-tracing app could fall foul of privacy law, government told,’ The Guardian 07-05-2020.