Discurso de ódio e redes sociais caminham lado a lado, e isso não é novidade para ninguém. Mas no X (o antigo Twitter) parece que o terreno está mais fértil do que nunca pra esse tipo de conteúdo.
De acordo com um estudo produzido por 4 universidades: UCLA, USC, UC Merced e Universidade do Oregon, todas nos Estados Unidos, desde que Elon Musk comprou a gigante do Vale do Silício o número de postagens com discurso de ódio duplicou.
Um outro levantamento, feito em dezembro do ano passado pelo ADL, mostrou que o número de postagens racistas saltou de 1.282 por dia para 3.876. Postagens homofóbicas foram de 2.506 diárias para 3.964.
Esses números, porém, começaram a prejudicar a própria empresa. O motivo é simples: anunciantes não querem vincular produtos às postagens ofensivas que circulam livremente pela plataforma.
Ação e reação
Mais recentemente, 3 grandes empresas, Apple, Disney e Coca-Cola, anunciaram que tirariam verba de publicidade da rede social de Elon Musk. A decisão representa um rombo de US$ 75 milhões (cerca de R$ 370 milhões) ao ano para o X.
Como resposta, o bilionário dono da Tesla abriu um processo contra a Media Matters, uma ONG que vem divulgando a veiculação de propagandas de grandes marcas ao lado de posts neo-nazistas, supremacistas brancos, de extrema direita ou de desinformação na plataforma.
“Um elemento central é a busca do lucro. Existem plataformas que são com fins lucrativos. Obviamente a forma de você tentar afetar o comportamento dessas plataformas é no chamado bottom line (o fim das contas, em tradução livre), como a gente diria em inglês”, explicou Filipe Campante, professor brasileiro da universidade Johns Hopkins, ao Brasil de Fato.
Em uma postagem no X, Elon Musk disse: “A Media Matter é malígna”.
O risco para as eleições de 2024 nos EUA
A menos de 10 meses da eleição presidencial de 2024, outro tema vem preocupando os especialistas: o aumento da desinformação no X.
Em julho, o ADL revelou que o número de postagens com teorias conspiratórias ligadas ao Q-Anon, grupo que estava na invasão do capitólio em janeiro de 2022, aumentaram 91%. O grupo acredita, dentre outras coisas, que democratas sugam sangue de crianças em bases subterrâneas para produzir uma espécie de elixir da juventude.
Teorias como essa são absurdas, mas já provocaram consequências reais. Em dezembro de 2016, um homem da Carolina do Sul invadiu uma pizzaria de Washington armado para libertar crianças que ele acreditava estarem sendo escravizadas. O caso ficou conhecido como Pizza Gate.
O efeito dessa maior desinformação, porém, pode ser ainda mais grave e generalizado. A questão não é apenas o que as pessoas acreditam, mas também todo o resto que deixam de acreditar.
“Com essa quantidade enorme de conteúdo, é muito difícil filtrar o que é confiável, o que não é, o que você deve acreditar ou não… E nessa situação, muitas vezes, o conteúdo ruim acaba expulsando o conteúdo bom”, explica Campante.
O professor brasileiro continua: “sem saber o que é bom ou não, você meio que assume que tudo é ruim. E aí se pensar que produzir um bom conteúdo é mais caro que produzir conteúdo ruim, você vai acabar priorizando o conteúdo bom”.
Retrocessos no combate à desinformação
Em 2020, o antigo Twitter criou um setor específico para lidar com desinformação durante a eleição. Nem mesmo Donald Trump escapou de ter postagens com tarja que alertava sobre a mentira contada. Já sob o comando de Elon Musk, a linha que separa a mentira da liberdade de expressão ficou menos nítida.
No Brasil, a questão está sendo abordada por um viés judicial, com contas sendo excluídas e difusores de fake news, banidos das redes. A mesma tática, porém, não funciona nos EUA.
No caso dos Estados Unidos a situação é mais complexa visto a leitura vigente da Primeira Emenda da constituição, que trata da liberdade de expressão. Em ambos os casos, o problema parece estar longe de ser solucionado.
“Você está enxugando gelo um pouco ali. Porque, assim, você está derrubando perfil ali, vai aparecer outro acolá. Que o problema é inerentemente complexo porque é uma questão tecnológica. Não é que nem você falar assim ‘oh, você tem a concessão de rádio e TV e você fala que se não fizer X, Y, Z, o regulador vai vir e vai fazer isso e aquilo’. Tecnologicamente é muito mais difícil de você controlar ou moderar o conteúdo, pro bem e pro mal”, conclui Campante.
Edição: Rodrigo Durão Coelho