A definição gera preocupação. Porque é justiça privada, porque bloquear textos ou pessoas não é o mesmo e porque evita revelar o seu poder.
Francisco Louçã, Expresso, 30 de abril de 2021
Dentro de dias, o Oversight Board do Facebook, uma instituição recentemente criada e que serve de tribunal de apelo dentro da empresa, avaliará se confirma ou anula o bloqueio da página de Trump, imposto depois do ataque ao Capitólio. Será uma escolha difícil e há nisto três motivos de preocupação. O primeiro é que se trata de justiça privada, segundo as conveniências da empresa (o que sugere a proibição; Zuckerberg foi um aliado de Trump e quer apagar esse cadastro). Não há aqui nenhuma regra geral que possa ser verificável e questionável. O segundo problema é que é diferente recusar a publicação de uma notícia falsa ou de um texto insultuoso por motivos editoriais universalmente aplicados ou bloquear uma pessoa, logo quando a própria rede social se compara com uma biblioteca para alegar que não é responsável pelo que nela se publica. Mas o terceiro problema é a essência do Facebook, como de outras redes sociais: a empresa não quer que se investigue o seu poder algorítmico, o mecanismo de controlo da contaminação. Sem se avaliar essa tecnologia de polarização não se evitarão novas vagas de ódio.
Discutem-se, por isso, várias respostas a este poder da plataforma, que vão para além do caso Trump, para se concentrarem na proteção democrática. A primeira é tratar estas empresas como bancos: teriam que separar as suas atividades em unidades independentes (o que não resultou na finança), por exemplo forçando a venda do WhatsApp, e que realizar testes de stresse algorítmico, verificando se respeitam padrões aceitáveis. Martin Chavez, ex-diretor financeiro do Goldman Sachs e agora consultor em empresas big tech, sugere também a criação de um sistema global de identidades digitais, para afastar bots e trolls. Procura deste modo regulamentar o algoritmo, embora evitando que as empresas sejam responsabilizadas pelos conteúdos que divulgam.
Nick Srnicek, professor no King’s College, propõe uma medida mais radical: o controlo público das redes. Se não agirmos a tempo, essas empresas virão a dominar os Estados, afirma. Tal atuação poderia seguir o modelo BBC, uma entidade independente financiada através das receitas de uma taxa sobre a publicidade digital, criando uma infraestrutura digital de serviço público.
Francis Fukuyama propôs ainda uma terceira estratégia. O caminho seria retirar às empresas a exclusividade da gestão do sistema, como porteiras dos conteúdos, usando filtros que cada utilizador escolheria para formatar o seu acesso à rede. A razão, diz ele, é a diferença entre o cabo e as redes: se um Robert Murdoch criou a Fox, quem não aprecie a cultura de extrema-direita pode ligar alternativamente a CNN, mas, se ele dominar o Facebook, não existem alternativas para nos desligarmos e instalarmos numa outra rede global. Portanto, devemos poder viver na rede ao nosso gosto.
Finalmente, há a solução que se aplica a este jornal: se as redes sociais forem forçadas a responsabilizar-se pelo que publicam, como acontece aqui, proteger-se-ão para evitarem incentivar crimes. Seriam também forçadas a abolir o anonimato, que é uma das raízes da cultura de violência, dado que hoje não há danos reputacionais para a criação de lixo e, ao mesmo tempo, se geram personificações fantasiosas que estimulam a agressividade (um dos fundadores e dissidentes do Facebook escreve que metade dos perfis são falsos). Assim sendo, o problema não será só Trump, que se tornou um pretexto para que o Facebook esconda a sua responsabilidade na trumpização do mundo. O problema é o poder dos donos da rede.