Malkia Devich-Cyril, Outras palavras/The Atlantic, 6 de julho de 2020
Tecnologia tornou-se muito mais assustadora do que pensamos. Bilhões de rostos estão catalogados. Ultradireita controla empresa-líder. Viés racista é nítido e cria o pesadelo de um “enquadro” virtual permanente contra todos os negros
Ahmaud Arbery. Breonna Taylor. Tony McDade. George Floyd. Rayshard Brooks. Oluwatoyin Salau. Robert Forbes. Enquanto [também nos Estados Unidos] vidas negras são violentamente aniquiladas pela polícia, por nacionalistas brancos ou outras formas de violência interpessoal, um movimento multiracial por essas vidas, liderado por ativistas negros, resiste fortemente e mantém o ritmo. O que também mantém seu ritmo normal são as perturbadoras tecnologias policiais, altamente avançadas, usadas para espionar esses ativistas. Minha mãe sobreviveu à vigilância do programa de contrainteligência do FBI sendo ativista dos direitos civis na década de 1960. Como ativista negra de segunda geração, já cansei de ser espionada pela polícia.
Em junho, em meio a uma imensa onda de protestos contra os assassinatos cada vez mais visíveis de negros, cometidos pela polícia, e numa pandemia de coronavírus simultaneamente explosiva que elimina vidas negras a taxas desproporcionais, a IBM comunicou, surpreendentemente, que iria parar de vender, pesquisar ou desenvolver serviços de reconhecimento facial. A Amazon e a Microsoft seguiram-na com seus próprios anúncios de que não venderiam mais serviços ou produtos de reconhecimento facial para departamentos de polícia estaduais e locais que estivessem aguardando regulamentação federal. Como os ativistas têm dado ênfase à antiga demanda de desfinanciar a polícia com estratégias mais modernas, de forma que as empresas de tecnologia cortem seus laços com as agências policiais, as empresas de reconhecimento facial enfrentam um momento de séria reformulação. Mas as empresas que decidem não vender mais esses polêmicos produtos, como se se tratasse de uma redenção, podem estar sendo mais motivadas por um cálculo cuidadoso dos riscos financeiros e de relações públicas do que pela real preocupação com as vidas negras.
Nos EUA, negros são mortos pela polícia numa taxa duas vezes maior do que a de americanos brancos e, em Minneapolis, onde George Floyd foi morto pela polícia em maio, os policiais têm sete vezes mais chances de usar a força contra negros do que contra brancos [No Brasil, num estado como o RJ, 78% dos mortos por forças policiais, em 2019, foram negros. E o número total de pessoas assassinadas pela polícia chegou a 4357 — dezessete vezes mais que nos EUA (Nota de Outras Palavras)]. Mas, no século XXI, a violência policial não se limita somente a sua forma física. Embora não possamos conhecer nunca toda a sua extensão, existem evidências reais de que a vigilância secreta e de alta tecnologia de ativistas e jornalistas negros ajuda a impulsionar um policiamento brutal.
Em 2015, a tecnologia de reconhecimento facial foi usada para rastrear e prender os manifestantes de Baltimore que reagiram ao assassinato policial de Freddie Gray, o jovem negro que morreu por lesões na coluna vertebral, sob custódia policial — crime pelo qual nunca ninguém foi responsabilizado. Nas últimas semanas, o Homeland Security, “Segurança Interna” espionou manifestantes em 15 cidades usando vigilância por drones, enquanto câmeras do corpo policial, equipadas com tecnologia de reconhecimento facial, capturaram imagens dos mesmos. O comediante John Oliver tem demonstrado a preocupação de que o reconhecimento facial descontrolado seja, agora, uma das ferramentas mais poderosas do policiamento.
Remetendo às desacreditadas teorias da pseudociência e da eugenia racista que asseguravam usar a estrutura facial e o formato da cabeça para avaliar a capacidade e o caráter mental, o software de reconhecimento facial automatizado usa inteligência artificial (IA), machine learning e outras formas de computação moderna para capturar os detalhes dos rostos das pessoas e comparar essas informações com os bancos de dados de fotos, com o objetivo de identificar, verificar, categorizar e localizar pessoas.
Embora agências policiais usem especificamente a tecnologia para monitorar ameaças detectadas e prever o comportamento criminoso, as capacidades de reconhecimento facial são muito mais amplas.
O software consegue monitorar seu corpo através de uma combinação de biometria (medidas de características físicas e comportamentais), antropometria (medidas de morfologia corporal) e fisiometria (medidas de funções corporais, como freqüência cardíaca, pressão arterial e outros estados físicos). Há muito tempo os Estados Unidos usam a ciência e a tecnologia para categorizar e diferenciar pessoas por hierarquias que, ainda hoje, determinam quem é capaz e incapaz, merecedor e não merecedor, legítimo e criminoso. Como no racismo científico antigo, o reconhecimento facial não se limita a identificar ameaças: ela as cria e, dessa forma, intensifica um contexto digital perigoso, que já tem um vasto histórico.
Há pelo menos dez anos, sou uma das muitas pessoas que defendem a justiça racial, os direitos civis e a privacidade, alertando sobre o uso do reconhecimento facial e das tecnologias biométricas para ampliar os abusos policiais do poder e piorar a discriminação racial. Menos de seis meses atrás, a Microsoft descartou a ideia de uma moratória. A Amazon tem desprezado muitas das preocupações com os direitos civis, apesar de as pesquisas mostrarem que sistemas de reconhecimento facial tendem a identificar erroneamente negros e mulheres numa proporção bem mais alta do que homens e brancos. Em um estudo, os asiáticos americanos e os negros tinham uma probabilidade até 100 vezes maior de serem identificados erroneamente do que os homens brancos, e os indígenas americanos tinham a maior taxa de falso positivo de todas as etnias. A Microsoft não tinha contratos de reconhecimento facial existentes com os departamentos de polícia locais dos Estados Unidos, mas afirma em seus próprios materiais ser líder no setor de reconhecimento facial.
A IBM foi mais receptiva às demandas dos ativistas, recusando-se a vender todos seus serviços de reconhecimento facial, devido ao seu potencial de abuso. O comunicado da IBM por escrito disse que a empresa “opõe-se firmemente” ao uso do reconhecimento facial “para vigilância em massa, perfis raciais, violações dos direitos humanos e liberdades básicas”. O executivo-chefe Arvind Krishna também chamou a um debate nacional sobre se o reconhecimento facial deve ou não ser usado pelas autoridades, e a empresa estabeleceu um conselho interno de ética em IA. Embora essa postura pareça motivada por preocupações genuínas de direitos humanos e possa ser o resultado direto do fato de Krishna ser o primeiro executivo-chefe não-branco da empresa em mais de 100 anos, é importante lembrar que, há menos de uma década, a empresa construía infraestruturas de vigilância nas Filipinas, fortalecendo os recursos de monitoramento de vídeo que permitiram diversas violações aos direitos humanos.
De acordo com Ruha Benjamin, autor do livro Race After Technology (“Corrida pela Tecnologia”), as tecnologias invasivas modernas, tais como reconhecimento facial e monitores eletrônicos, reproduzem e superam a desigualdade racial na era da big data e oferecem poucas métricas tangíveis para medir sua eficácia. Essas tecnologias são tão destrutivas para a democracia quanto discriminatórias. A discussão sobre como acabar com o policiamento excessivo, brutal e discriminatório está evoluindo e, à medida em que acumula vitórias, há uma crença crescente de que um desfinanciamento da infraestrutura de policiamento também deve desmantelar a abusiva estrutura da vigilância digital. Para defender as vidas negras no século XXI, é necessário proibir o acesso da polícia ao reconhecimento facial e a outras ferramentas de alta tecnologia usadas para criminalizar as comunidades negras.
O alcance dessa tecnologia e sua influência na segurança pública são impressionantes. Nos últimos anos, as tecnologias de reconhecimento facial expandiram-se no âmbito da aplicação da lei feito fogo em palha seca. Surpreendentemente, metade de todos os adultos norte americanos já estão nos bancos de dados de reconhecimento facial da polícia, devido a um tipo de monitoramento persistente, chamado de “formação permanente”, como consta num relatório de 2016 do Centro de Direito de Georgetown sobre Privacidade e Tecnologia. O relatório também descobriu que até um em cada quatro departamentos de polícia dos EUA pode acessar ferramentas de reconhecimento facial, e muitos as usam em investigações criminais de rotina.
O Departamento de Imigração e a Alfândega usaram a tecnologia de reconhecimento facial para explorar bancos de dados estaduais, incluindo o enorme acervo de registros de carteiras de habilitação, digitalizando milhões de fotos de pessoas sem seu conhecimento ou consentimento. Em Maryland, um estado que concede carteiras especiais a imigrantes sem documentos, a Imigração usou o software de reconhecimento facial para digitalizar milhões de fotos das carteiras de motoristas sem um mandado ou qualquer outra forma de aprovação do estado ou do tribunal, num nível de acesso sem precedentes e muito perigoso. O FBI entrou na briga, realizando 4.000 buscas de reconhecimento facial por mês. Vinte e um estados norte-americanos permitem esse acesso.
Eis mais uma maneira de pensar sobre o quão influente essa tecnologia emergente já é.
A Clearview AI é uma das empresas de reconhecimento facial mais poderosas dos EUA, enraizada na extrema-direita política estadunidense. Um dos principais investidores da Clearview AI é Peter Thiel, que foi também um dos primeiros investidores do Facebook e co-fundador da Palantir, uma startup de big data apoiada pela CIA. A Clearview AI possui uma tecnologia que permite não só que policiais ou assinantes corporativos privados (como NBA, Best Buy e Macy’s) conectem rostos a dados pessoais em tempo real, mas, agora, que também possam usar esses dados com óculos de realidade aumentada. Graças a uma inovação aterradora, os usuários destes dispositivos já são capazes de identificar todas as pessoas que veem.
O tamanho do banco de dados da Clearview excede significativamente o de outros em uso pela polícia, com cerca de 3 bilhões de fotografias. O banco de dados do FBI, que é retirado das fotos de passaporte e carteira de motorista, é o segundo maior, com 641 milhões de imagens dos rostos das pessoas. A Clearview AI construiu seu banco de dados extraindo bilhões de fotos de plataformas de mídia social como Facebook e Twitter, violando seus termos de serviço. O banco de dados da Clearview está amplamente disponível para órgãos estatais nos EUA e sua tecnologia foi adotada por mais de 600 agências policiais apenas no ano passado. Em resposta a objeções legais de algumas das plataformas das quais tirou suas 3 bilhões de fotos, o executivo-chefe da Clearview, Hoan Ton-That, fez uma reivindicação legal bastante tênue de que a empresa tinha o direito de acesso aos dados pela Primeira Emenda, porque as imagens estavam disponíveis ao público
Um dos departamentos de polícia que usa o banco de dados do Clearview AI é o Departamento de Polícia de Minneapolis. É claro que este é o departamento que provocou os levantes recentes; o policial (agora demitido) Derek Chauvin foi acusado de assassinato em segundo grau, depois de pressionar seu joelho sobre o pescoço de George Floyd por quase nove minutos. Em fevereiro de 2020, centenas de buscas haviam sido feitas pelo Departamento de Polícia de Minneapolis, pelo Gabinete do Xerife do Condado de Hennepin, pelo Departamento de Polícia de St. Paul e pelo Minnesota Fusion Center.
Muito assustador? Espere, que há muito mais.