POR O GLOBO
As “fake news” têm potencial para se tornar uma arma mais poderosa do que os dossiês contra políticos que sempre fizeram parte das disputas eleitorais brasileiras. Diante desse risco, a Justiça Eleitoral e empresas de tecnologia como Facebook, Google e Twitter passaram a adotar medidas para tentar reduzir os danos que os sites de notícias falsas e informações distorcidas podem provocar na disputa. As ações ocorrem depois que essas plataformas digitais foram usadas para difusão de anúncios de conteúdo duvidoso nas eleições americanas de 2016, com impacto direto no resultado das urnas. Enquanto a Justiça Eleitoral pretende acionar até mesmo o Centro de Defesa Cibernética do Exército para monitorar os sites de “fake news”, Facebook e Google têm usado a tecnologia para tornar seus algoritmos mais resistentes a eles. O Twitter, por sua vez, tem uma política um pouco menos incisiva em relação ao tema.
Um levantamento feito pelo Núcleo de Jornalismo de Dados do GLOBO com base em informações da plataforma Crowdtangle, ferramenta certificada pelo Facebook para medir a audiência de suas páginas, mostra que 11 perfis na rede social, atrelados a sites que distribuem notícias falsas ou distorcidas sobre política e não têm qualquer indicação do responsável pelo seu conteúdo, publicam, em média, mais de 200 posts por dia. As postagens dessas páginas são compartilhadas milhões de vezes no Facebook. Para se ter ideia, em maio deste ano, quando os sites de “fake news” tiveram seu melhor desempenho na rede social dos últimos 12 meses, mais de 5 milhões de compartilhamentos foram contabilizados em seus perfis. No mesmo período, as páginas de seis pré-candidatos à Presidência em 2018 com as melhores colocações nas últimas pesquisas de intenção de voto registraram 2,5 milhões de compartilhamentos mensais.
Apesar disso, os dados mostram uma queda significativa no patamar de compartilhamentos dos sites de “fake news” analisados pelo GLOBO. Entre janeiro e maio deste ano, em média, os compartilhamentos dessas páginas sempre se mantinham acima de 3 milhões. Desde então, essa média caiu paulatinamente, chegando a menos de 1,5 milhão no mês passado. Também houve queda no compartilhamento médio por postagem.
Essas estatísticas, porém, são conservadoras, porque consideram apenas compartilhamentos diretos das páginas oficiais desses sites e não contabilizam casos em que outros usuários do Facebook replicaram o conteúdo para a sua rede de contatos em uma publicação própria. Ou seja, o poder de disseminação desses sites é muito maior do que o mostrado pelo levantamento.
O GLOBO utilizou como referência para selecionar as páginas analisadas uma lista divulgada no início do ano pela Associação dos Especialistas em Políticas Públicas de São Paulo (AEPPSP), que identificou os maiores sites de notícias do país que disseminam informações falsas, não-checadas ou boatos pela internet, usando uma base de dados do Monitor do Debate Político no Meio Digital, criado por pesquisadores da Universidade de São Paulo (USP). Quase todos esses sites estão registrados fora do Brasil e contrataram serviços para esconder a identidade de seus reais proprietários, segundo levantamento a pedido do GLOBO feito pela BigData, empresa especializada em colher e analisar informações na internet.
PLATAFORMAS FAZEM AJUSTES
A queda de engajamento dessas páginas pode ter relação com uma série de mudanças feitas pelo Facebook e Google no uso de suas ferramentas, depois que foram envolvidas junto com o Twitter em um escândalo eleitoral nos Estados Unidos. Todas elas estão sendo investigadas pelo Congresso norte-americano. Lá, agentes russos pagaram para impulsionar anúncios e “fake news” e podem ter desequilibrado o jogo a favor do presidente Donald Trump. O Facebook, por exemplo, admitiu que cerca de 126 milhões de usuários poder ter acessado as 80 mil postagens publicadas por russos durante dois anos, durante a após as eleições.
A plataforma, aliás, é a que mais implementou mudanças nos últimos meses para tentar frear a ação dos sites de notícias falsas. Em maio, o Facebook passou a revisar centenas de milhares de sites vinculados para identificar aqueles que contêm “pouco conteúdo e um grande número de anúncios mal-intencionados” e aplicou a inteligência artificial para “entender se novas páginas compartilhadas na plataforma apresentavam características semelhantes”. A partir desse diagnóstico, essas páginas passaram a ter menos relevância na plataforma.