Uma análise inédita conclui que cerca de um terço do que circula nas redes sociais é totalmente falso ou altamente tóxico. E nada indica que as plataformas estejam prestes a travar: os seus algoritmos tendem a recompensar a mentira.
As redes sociais são ambientes tóxicos? Sem dúvida. Pela primeira vez, um projecto financiado pela União Europeia - o SIMODS, coordenado pela ONG francesa Science Feedback - quantificou de forma sistemática a percentagem de conteúdos enganadores nas principais plataformas. A equipa avaliou 2,6 milhões de publicações, que somaram cerca de 24 mil milhões de visualizações entre março e abril de 2025, em seis redes (Facebook, Instagram, TikTok, X, YouTube e LinkedIn) e em quatro países europeus, incluindo a França. A conclusão é categórica: as redes sociais estão fortemente contaminadas por desinformação, conteúdos de ódio e narrativas manipuladoras. No TikTok e no X, quase um terço da experiência do utilizador já é moldada por conteúdos problemáticos.
O estudo assenta num conjunto representativo de 500 conteúdos por plataforma e por país, ponderado pela exposição, e revisto por verificadores de factos profissionais segundo procedimentos transparentes e reproduzíveis. O resultado aponta para o essencial: o que chega ao feed dos utilizadores é, em grande medida, consequência de arquitecturas algorítmicas que dão vantagem a conteúdos falsos e tóxicos.
Estudo SIMODS: TikTok, Facebook e X, as redes mais tóxicas
Como seria de esperar, o TikTok destaca-se pela negativa, com aproximadamente 20% das publicações a conter informação factualmente falsa. A seguir surge o Facebook com 13% e o X (antigo Twitter) com 11% - patamares que seriam considerados inaceitáveis em qualquer meio de informação minimamente rigoroso.
E o cenário piora quando às falsidades se juntam conteúdos abusivos (discurso de ódio, ataques dirigidos, etc.) e a “zona cinzenta” (publicações que difundem narrativas enganadoras sem erros facilmente verificáveis). No TikTok, 34% dos conteúdos mostrados aos utilizadores enquadram-se na desinformação. No X, a fasquia chega aos 32%, ou seja, um em cada três conteúdos.
O LinkedIn é a grande excepção, com apenas 2% de conteúdos explicitamente falsos e uma incidência muito baixa de toxicidade. Em contrapartida, há que lidar com influenciadores de treta - mas isso é outro tema (que, aliás, já foi alvo de uma investigação no Presse-citron).
Os investigadores sublinham ainda a concentração destes desvios em torno de um pequeno número de contas com enorme exposição. Uma minoria reduzida de actores, apesar de identificada como problemática, capta a maior parte do tráfego ligado à desinformação e beneficia de uma visibilidade desproporcionada.
O negócio da mentira
Os dados mostram que a saúde é o tema com maior taxa de fake news ou de conteúdos tóxicos, com 43% de publicações enganosas detectadas. Burlas, “curas” milagrosas e pseudociência: o que se torna viral é frequentemente construído para explorar a vulnerabilidade de quem está online, mais do que para informar. Seguem-se a guerra na Ucrânia, a política interna, o clima e a imigração - assuntos onde a emoção e a indignação são facilmente instrumentalizadas.
E é precisamente a emoção que alimenta as plataformas. Como evidência, os autores identificaram uma espécie de “bónus de visibilidade” concedido pelos algoritmos às informações falsas. Com a mesma audiência, uma conta pouco fiável tende a somar mais visualizações e interacções do que uma conta com informação verificada - com até oito vezes mais envolvimento observado no YouTube para contas consideradas pouco fiáveis. Na prática, as plataformas empurram conteúdos chocantes, escandalosos e conspirativos, porque estes prendem a atenção, provocam reacções e, por consequência, geram receitas publicitárias.
As empresas invocam frequentemente a liberdade de expressão para justificar a sua hesitação em moderar, enquanto promovem ferramentas de denúncia ou de rotulagem. Contudo, os autores do estudo observam que estes mecanismos continuam a ser residuais perante a força das recomendações algorítmicas, que amplificam em massa os conteúdos problemáticos.
Além disso, as plataformas parecem ter abrandado seriamente na moderação. Apesar de o Digital Services Act (DSA) as obrigar a documentar e a reduzir os riscos de desinformação, verifica-se um recuo sem consequências. Um exemplo emblemático deste “deixa andar”: o Facebook terminou, no início de 2025, o seu programa de verificação de factos, numa altura em que vozes políticas influentes - incluindo Donald Trump - incentivavam abertamente as plataformas a desafiar os reguladores europeus e a aliviar os esforços de moderação.
Devemos deixar de nos informar nas redes sociais?
Perante um quadro tão preocupante, o que fazer? Os investigadores defendem que as autoridades europeias devem assumir o controlo, impondo, por exemplo, moderação mais eficaz, desmonetização de publicações problemáticas e uma reformulação dos algoritmos para que deixem de impulsionar informação falsa. Caso contrário, deixam implícito que a espiral tóxica observada hoje apenas se agravará à medida que as plataformas refinam ainda mais os seus modelos de recomendação. Ainda assim, por agora é difícil imaginar essa viragem: nas últimas semanas, a Europa parecia querer reduzir a pressão sobre as plataformas. Chega mesmo a ponderar flexibilizar regras, nomeadamente ao nível do RGPD.
O único travão real para este fenómeno é o próprio utilizador. No TikTok, no Facebook e no X, abrir o feed para “se informar” já não faz sentido. Quando até um terço do que se vê é falso, tendencioso ou odioso, separar o verdadeiro do falso torna-se quase impossível - mesmo para quem é experiente.
Os impactos vão muito além da esfera individual. As plataformas fragmentam as sociedades, criam bolhas informativas e normalizam o conspiracionismo, o racismo e o ódio ao outro. Continuar a tratá-las como fontes legítimas de informação equivale a aceitar que um sistema desenhado para capturar atenção se transforme num motor da vida democrática.
Então, que atitude tomar? Encarar as plataformas pelo que realmente são. “TikTok, Facebook ou X não são meios de informação, mas sim plataformas de entretenimento.” Desligam-nos o cérebro, fazem-nos libertar dopamina para manter a atenção presa a conteúdos de baixo valor acrescentado. E nunca, mas nunca, procuram ajudar-nos a compreender o mundo, a aprender ou a estar informados. Pelo contrário: isso arruinaria o seu modelo de negócio.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário