Documentos mostram quanto youtubers ganharam com desinformação sobre covid-19, mas é preciso investigar o lucro das próprias plataformas com esse tipo de conteúdo. Como novo livro do Intervozes mostra, as corporações digitais devem rever modelo de negócios para ser eficazes contra fake news.
Helena Martins, Bia Barbosa e Jonas Valente, Intervozes, 17 de junho de 2021
A CPI da Covid recebeu informações sobre os ganhos de canais do YouTube que chegaram a ter vídeos apagados da plataforma por difundirem desinformação sobre formas de tratamento para a covid-19 ou a pandemia. Os documentos foram entregues de forma sigilosa à Comissão Parlamentar de Inquérito (CPI) e vieram à tona a partir da coluna de Natália Portinari no jornal O Globo. Ao todo, o Google, corporação detentora do YouTube, enviou uma lista com 385 vídeos de 34 canais. A lista não apenas deixa nítido quem tem protagonizado campanhas de desinformação sobre o tema em uma das principais redes sociais em operação; ela também mostra que as plataformas digitais possuem informações valiosas para que o combate a esse tipo de prática seja efetivo. No entanto, como pesquisa do Intervozes que será lançada em livro neste mês revela, tais corporações adotam tangencialmente o problema, sem valer-se de medidas capazes de pôr fim a uma situação que ameaça concretamente as sociedades contemporâneas.
No início de maio, o Congresso em Foco detectou a retirada de diversos vídeos bolsonaristas do YouTube. Em requerimento solicitando informações ao Google, o senador Randolfe Rodrigues (Rede-AP) pediu que fossem detalhados os “valores monetários transferidos aos canais em decorrência dos referidos vídeos e demais dados pertinentes.” Em resposta, foi informado que quem mais recebeu dinheiro por espalhar desinformação foi o jornalista Alexandre Garcia, que teve 126 vídeos tirados do ar depois de terem rendido quase R$ 70 mil em remuneração pela audiência e publicidade. Depois dele, estão: Gustavo Gayer (R$ 40 mil), Notícias Política BR (R$ 20,7 mil), Brasil Notícias (R$ 17,7 mil). Ao todo, ainda de acordo com noticiado pelo O Globo, os usuários ganharam US$ 45 mil, o equivalente a R$ 230 mil. Na lista, há vídeos que não chegaram a ser remunerados, segundo texto de Portinari.
A CPI pode, a partir dessas informações, seguir o dinheiro e buscar investigar os grupos e os objetivos de quem elaborou os vídeos. Em outro sentido, também seguindo o dinheiro, vale perguntar por quem os valores foram transferidos e por quê. Uma possível resposta passa, a nosso ver, pelo próprio YouTube, que possui um sistema de pagamentos que funciona por meio do Google AdSense, a plataforma do Google referente ao gerenciamento de publicidade. Podem ser remunerados canais que tenham mais de 4 mil horas de exibição públicas válidas nos últimos 12 meses; reúnam mais de mil inscritos e possuam uma conta do canal no Google AdSense. Os canais passam a ser parceiros do YouTube para que possam ser “monetizados”, o que inclui seguir as políticas da plataforma. Quanto o YouTube paga por vídeo depende da taxa de CPM (custo por mil impressões) e varia dependendo de fatores como tipo de conteúdo e audiência. Os recursos são recebidos sempre que se chega a 100 dólares. Isto é, para que Alexandre Garcia tenha recebido R$ 70 mil, é provável que repasses tenham sido feitos antes de o vídeo desinformativo ter sido retirado do ar.
O YouTube informa em suas políticas que “não controla o que os usuários podem publicar, mas temos a responsabilidade de cuidar dos nossos espectadores, criadores de conteúdo e anunciantes”. Detalha ainda que “para garantir que bons criadores de conteúdo sejam recompensados, analisamos o canal antes de aceitar sua participação no Programa de Parcerias do YouTube. Também avaliamos constantemente os canais para garantir que você esteja em conformidade com nossas políticas e diretrizes”. Portanto, ainda que não tenha responsabilidade sobre o conteúdo de terceiros, reconhece que tem algum grau de responsabilidade em relação ao que circula na rede. Ora, muitos dos canais apontados na lista já são conhecidos como canais desinformativos – e seguem em operação, apesar de terem tido vídeos removidos.
Essa permanência tem relação tanto com o frágil acompanhamento dos conteúdos, feito muitas vezes a partir de algoritmos ou por meio da exploração de revisores que trabalham de forma precarizada [1], quanto pela ineficácia de suas regras de remoção [2]. Além disso, o que pode responder à segunda pergunta feita anteriormente, o YouTube também ganha com esse tipo de conteúdo em sua plataforma.
Como sabe-se, o modelo de negócios de plataformas digitais de redes sociais é baseado na publicidade. No caso do YouTube, seja pela venda de publicidades durante os vídeos para a audiência ou pela obtenção de dados dos usuários, os quais são tratados e vendidos posteriormente. As plataformas são, no mínimo, omissas diante de conteúdos desinformativos porque eles geram engajamento e, com isso, mais audiência e mais dados. Não cabe, portanto, deixá-las de fora da análise sobre o problema do enfrentamento à covid-19, como se elas fossem apenas suportes de difusão desses vídeos. Elas sabem o que circulam, remuneram esses conteúdos e ganham por isso.
Falhas no enfrentamento à desinformação sobre covid-19
Sobre covid especificamente, estudo da Universidade de Michigan divulgado em julho de 2020 apontou que pelo menos um quarto dos vídeos que circulavam sobre o novo coronavírus no YouTube não continham embasamento científico válido. A pesquisa teve o objetivo de analisar como os algoritmos do YouTube contribuem para a disseminação desse tipo de conteúdo, e concluiu que, apesar de todas as declarações do Google sobre aprimoramentos neste sentido, quanto mais informação duvidosa é consumida, mais conteúdo semelhante segue sendo sugerido. E que, quanto maior a popularidade de um vídeo sobre o tema, menor sua probabilidade de contar com fundamentos médicos comprovados.
No Brasil, estudo intitulado “Ciência Contaminada - Analisando o Contágio de Desinformação Sobre Coronavírus via YouTube”, do Centro de Estudos e Pesquisas de Direito Sanitário (Cepedisa) da USP, do Centro de Análise da Liberdade e do Autoritarismo (LAUT) e do Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT.DD), sediado na UFBA, revelou que vídeos com notícias falsas ou dados contrariando levantamentos científicos oficiais foram três vezes mais vistos que conteúdos de redes de informações verdadeiras sobre a covid-19. A análise de mais de 34 mil vídeos concluiu que os com desinformação tiveram 73,4 milhões de visualizações, contra 27,7 milhões de canais com produções de notícias verdadeiras. Importante ter em vista que, de acordo com o estudo, cerca de 70% do tráfego na plataforma é resultado de recomendações feitas pela seleção do YouTube, que indica, dessa forma, a maior parte dos conteúdos visualizados.
Na amostragem dos vídeos de maior impacto, com mais de 100 mil visualizações, três deles continham “informações falsas ou imprecisas” ditas pelo comentarista Alexandre Garcia, que lidera a lista enviada à CPI. No relatório do INCT.CC, um dos canais destacados é o Desperte - Thiago Lima, que segue no ar. O canal não está na lista dos que mais receberam recursos segundo O Globo, o que mostra que pode haver mais canais desinformativos promovendo e lucrando com as mortes derivadas da utilização inadequada de remédios.
Entre o objetivo de lucrar e a responsabilidade das plataformas
O problema das políticas de moderação de conteúdo se mostra mais preocupante quando nos vemos diante de um desafio imenso como o da pandemia, em que ter uma informação inadequada pode significar, concretamente, viver ou morrer. Apesar dessa relevância, a pesquisa “Fake news: como as plataformas enfrentam a desinformação”, que realizamos pelo Intervozes, mostra que as plataformas não têm desenvolvido medidas capazes realmente de eliminar o problema do fluxo de desinformação. Para chegar a essa conclusão, foram analisadas as medidas desenvolvidas por Facebook, Instagram, WhatsApp, YouTube e Twitter entre 2018 e 2020, período que compreende o primeiro ano da pandemia do coronavírus. O sumário executivo da pesquisa foi lançado em outubro de 2020. Em julho, será lançado livro homônimo (Editora Multifoco), que permitirá ao público ter acesso à íntegra do estudo, com todas as medidas implementadas no período analisadas.
Nossa pesquisa mostra que, durante a pandemia da covid-19, dada a infodemia de desinformação associada à doença, as plataformas passaram a ser pressionadas para desenvolver medidas específicas de combate às chamadas fake news. Ainda no início de março de 2019, o CEO do Google e da Alphabet, Sundar Pichai, divulgou um comunicado informando como a empresa estava ajudando no combate ao novo coronavírus. O CEO disse trabalhar para “remover rapidamente qualquer conteúdo que alegue prevenir o coronavírus em vez de procurar tratamento médico”. Alguns anúncios buscando capitalizar em cima da epidemia passaram a ser bloqueados, incluindo os que vão de encontro a consensos científicos. Ocorre que nem toda a publicidade em torno da pandemia foi restrita.
Cinco dias após aquele pronunciamento, a plataforma permitiu que canais certificados pudessem receber anúncios em vídeos que discutiam a pandemia e que novos produtores de conteúdo poderiam integrar este rol nas semanas seguintes. Logo depois, um segundo comunicado relatou que milhares de vídeos perigosos ou com informação enganosa sobre o coronavírus já haviam sido removidos do YouTube e que anúncios de máscaras médicas e respiradores haviam sido temporariamente bloqueados.
Em nova atualização, a monetização foi liberada para todos os vídeos que seguissem as diretrizes de conteúdo. Entre os vídeos relacionados ao coronavírus que continuariam limitados ou sem anúncios estavam: filmagens angustiantes, que mostrassem pessoas sofrendo claramente por causa da covid-19; desinformação médica (o que incluía declarações falsas ou sem embasamento sobre a causa da doença, promoção de medicamentos e remédios perigosos, propagação de informações sobre a origem ou o contágio da covid-19 que não estivessem de acordo com o consenso científico); e pegadinhas e desafios com atividades perigosas, como exposição proposital ao vírus ou que gerassem pânico. Uma lista com o detalhamento da política para conteúdos sobre covid-19 foi publicada em maio de 2020, com exemplos do que não poderia ser publicado.
Já em abril deste ano, o YouTube atualizou suas políticas e passou a proibir vídeos que recomendem o uso de ivermectina ou hidroxicloroquina para o tratamento ou prevenção contra a covid-19. Após a exclusão, os donos dos canais passaram a receber uma notificação por e-mail. O canal que desrespeitar a regra pode ser bloqueado temporariamente ou ser banido em caso de reincidência. A plataforma também informou que vídeos antigos que promovessem tais medicamentos poderiam ser removidos. Em decorrência disso, foram removidos quatro vídeos do canal do presidente Jair Bolsonaro na plataforma (lives exibidas em julho, novembro e dezembro de 2020 e em janeiro de 2021).
Conforme informado pela companhia à pesquisa do Intervozes, em 2020 o YouTube incluiu no rol de “conteúdos limítrofes”, que deixam de ser recomendados aos usuários, embora sigam no ar, vídeos que tratem de temas como porcentagens de mortalidade, taxas de contaminação ou teorias da conspiração sobre a origem do vírus e sobre os quais ninguém da comunidade científica tenha certeza. Na busca por equilibrar responsabilidade e liberdade de expressão, a plataforma conta com avaliadores externos que ajudam a “treinar” os sistemas de avaliação da empresa e diretrizes públicas de análise, o que tem levado a reduções significativas de visualizações desse tipo de conteúdo (entre 40 e 70%). Por outro lado, essa política pode significar riscos de cerceamento à liberdade de expressão diante da ausência de critérios públicos para a orientação da moderação.
O enfrentamento à desinformação em seu conjunto
A pesquisa do Intervozes mostra ainda que o YouTube, no período analisado, não tinha uma definição do que entende como desinformação e não constituiu estrutura institucional específica para tratar do tema. Apesar disso, a plataforma afirma que verifica conteúdos desinformativos por equipe própria, remove e/ou reduz o alcance de vídeos, adota ações de desmonetização e medidas restritivas em anúncios e conteúdos impulsionados e suspende contas por desinformação.
A seu favor, o YouTube, assim como o Twitter, conta com o fato de que disponibiliza recurso para denúncia de desinformação, notifica usuários em caso de sanção por desinformação e viabiliza que seja apresentado recurso à plataforma em caso de sanção em função da prática. São medidas de devido processo na moderação de conteúdo que, em geral, não são vistas no Facebook, e no Instagram e no Twitter.
Por outro lado, ainda há muito que se avançar em relação à transparência sobre a gestão de conteúdo desinformativo dentro do YouTube. O fato de a CPI ter recebido as informações da plataforma em sigilo já mostra a dificuldade de a sociedade, em geral, saber o que ocorre nessa rede social, bem como em todas as demais. Faltam, por exemplo, balanços detalhados das medidas adotadas contra desinformação nos relatórios de transparência da empresa. Como apontado na pesquisa, as informações disponibilizadas pelo YouTube acerca dos canais e conteúdos que deixaram de ser monetizados por violarem as políticas da plataforma impedem qualquer análise mais consistente sobre o impacto das medidas adotadas contra as fake news - de modo que não é exagero afirmar que a empresa segue lucrando com a ação das redes de desinformação em seu interior.
As plataformas podem fazer mais do que fazem hoje e a CPI da covid-19 tem a oportunidade de impulsionar esse caminho. Se é fato que a Comissão já tem dado uma contribuição importante ao evidenciar as escolhas erradas do governo de Jair Bolsonaro na pandemia, agora ela também pode dar passos importantes para ajudar a desmontar um esquema opaco, mas bastante influente em nossas vidas, de disseminação de desinformação. Seguir o dinheiro, nesse caso, deve significar questionar não apenas quem ganha por promover desinformação, mas toda esse modelo de negócios que tem gerado danos profundos para a saúde pública e para a democracia.
Referências:
[1] Cerca de 10 mil pessoas trabalhavam na revisão e remoção de conteúdo em setembro de 2019. Tendo em vista o volume de publicações, a grande audiência (120 milhões de contas só no Brasil) e o fato de o Google estar entre as companhias mais valiosas do mundo hoje, é necessário requerer maior capacidade de análise das publicações.
[2] O YouTube adota os seguintes procedimentos: se o conteúdo violar as Diretrizes da Comunidade, ele é removido e o responsável receberá uma notificação no e-mail informando as políticas violadas e o que pode ser feito em seguida. Na primeira vez que a pessoa publica um conteúdo que viola as Diretrizes da Comunidade, o vídeo é removido, mas o canal recebe apenas uma advertência. Nas seguintes, é emitido um aviso. A partir desse momento, por uma semana, o canal fica impedido de publicar vídeos, histórias ou fazer transmissões ao vivo, postar na comunidade, criar ou editar playlists e adicionar colaboradores a elas. Se o canal receber um segundo aviso no período de 90 dias após a primeira ocorrência, não poderá postar conteúdo por duas semanas. Cada aviso leva 90 dias para expirar depois de ser emitido. Três avisos em 90 dias levam à exclusão permanentemente do canal do YouTube.
Helena Martins, Bia Barbosa e Jonas Valente são jornalistas, integrantes do Intervozes e autores da pesquisa “Fake news: como as plataformas enfrentam a desinformação”.