Voici une vérité qui dérange : la plupart d'entre nous pensent être meilleurs que nous le sommes réellement pour repérer les fausses informations, sous-estimant souvent la difficulté et la complexité liées à l'identification précise de la désinformation.

Des recherches montrent qu'environ 90 % des personnes pensent être plus douées que la moyenne pour identifier la désinformation, alors que trois sur quatre surestiment en réalité leurs compétences (PNAS, 2021). Ce surconfiance est particulièrement marqué chez les jeunes.

L'enquête Flash Eurobaromètre sur les médias sociaux 2025 a révélé que 71 % des 15-24 ans dans l'UE se sentaient capables de reconnaître la désinformation (le pourcentage le plus élevé de toutes les tranches d'âge), alors que 78 % d'entre eux déclaraient être exposés à de fausses informations au moins une fois par semaine. Ce décalage dangereux entre la confiance et l'exposition réelle signifie que les personnes qui se croient à l'abri des fausses informations sont souvent les plus susceptibles de les diffuser.

La bonne nouvelle ? Les vérificateurs de faits professionnels utilisent des techniques que tout le monde peut apprendre, et les plus efficaces ne prennent que quelques secondes, et non des heures.

Pourquoi votre cerveau est programmé pour tomber dans le panneau

Avant d'aborder la méthode, il est important de comprendre pourquoi les fausses informations sont si efficaces. La désinformation ne prospère pas parce que les gens sont stupides ; elle prospère parce qu'elle est conçue pour exploiter notre façon naturelle de traiter l'information.

Les récits qui suscitent la colère, la peur ou une satisfaction illusoire se propagent jusqu'à dix fois plus vite que les informations exactes (MIT, 2018). Il ne s'agit pas d'un dysfonctionnement de la psychologie humaine, mais d'une caractéristique intrinsèque. Nous sommes programmés pour prêter attention aux menaces et aux informations qui confirment nos croyances. Les algorithmes en tiennent compte, ce qui explique pourquoi votre fil d'actualité regorge de contenus conçus pour provoquer des réactions émotionnelles.

Les plateformes elles-mêmes amplifient le problème. Sur TikTok, qui affiche le taux de désinformation le plus élevé de toutes les grandes plateformes (environ 20 %, SIMODS/EDMO, 2024), la viralité des contenus repose davantage sur l'engagement que sur leur exactitude. La décision de Facebook, en 2017, d'accorder aux réactions de colère un poids algorithmique cinq fois supérieur à celui des mentions « J'aime » a accéléré la propagation de contenus toxiques et mensongers. Enfin, sur X (anciennement Twitter), les fausses informations se propagent jusqu'à six fois plus vite que les vraies (Vosoughi et al., 2018).

Il ne s'agit pas de se blâmer d'avoir été dupé, mais de reconnaître que l'on est confronté à un système conçu pour tromper.

Les signaux d'alarme qu'on repère en quelques secondes

Les fausses informations suivent des schémas récurrents. Avec la pratique, les reconnaître devient vite un réflexe.

Le langage est un indicateur révélateur. Les titres sensationnalistes conçus pour provoquer l'indignation, le texte en majuscules, la ponctuation excessive (!!!) et les formules incitant à l'urgence, comme « Partagez avant qu'ils ne suppriment ceci ! », sont des signes classiques. Si un titre vous met en colère ou vous terrifie avant même d'avoir lu l'article, c'est le moment de ralentir. Des phrases comme « Ils ne veulent pas que vous voyiez ça » ou « Vous n'allez pas croire ce qui s'est passé ensuite » sont conçues pour court-circuiter la réflexion critique en déclenchant des réactions émotionnelles.

L'absence de citation est un signal d'alarme majeur. Les médias d'information légitimes indiquent clairement la signature, la date et les sources. Si un article mentionne « des experts disent » ou « des études montrent » sans fournir de lien vers l'étude en question ni nommer l'expert, il convient d'être très sceptique. Les sources anonymes ou non identifiées peuvent être légitimes dans le journalisme d'investigation, mais elles sont aussi un outil privilégié des propagateurs de désinformation.

Vérifiez attentivement l'URL. L'une des tactiques de désinformation les plus efficaces consiste à créer de faux sites web imitant des médias de confiance. L'opération Doppelganger russe a créé des clones de Der Spiegel, du Parisien et du Guardian (EU DisinfoLab, 2024). Soyez attentif aux fautes d'orthographe dans le nom de domaine (BBCnews.com.co au lieu de bbc.com), aux extensions inhabituelles (.info, .xyz, .com.co) ou aux domaines enregistrés très récemment. Un site prétendant être un média d'information reconnu, mais enregistré la semaine dernière, est presque certainement un faux.

Les contenus générés par l'IA présentent des signes distinctifs. Pour les textes, soyez attentifs aux répétitions, à une écriture trop fluide et générique, et aux groupes d'expressions typiques de l'IA telles que « Il est important de noter », « approfondir » ou « multifacettes ». Pour les images, recherchez une texture de peau artificielle, des incohérences dans les détails (oreilles, cheveux, etc.) et des arrière-plans architecturaux improbables. Les vidéos truquées (deepfakes) présentent souvent des transitions floues et un éclairage artificiel. Le problème est le suivant : les méthodes de détection de l'IA évoluent rapidement ; ce qui fonctionnait il y a six mois peut ne plus fonctionner aujourd'hui. La réglementation européenne sur l'IA exige l'étiquetage des contenus générés par l'IA, mais son application reste inégale.

Les techniques de vérification des faits en 30 secondes qui fonctionnent vraiment

Les vérificateurs de faits professionnels ne passent pas des heures à vérifier chaque affirmation ; ils utilisent un ensemble de techniques rapides que vous pouvez reproduire.

L'outil le plus puissant est la lecture latérale. Au lieu de lire attentivement un article suspect, ouvrez immédiatement un nouvel onglet et recherchez sur Google le nom de la source ou l'affirmation principale. Une étude de Stanford a révélé que 100 % des vérificateurs de faits professionnels identifiaient correctement les sources crédibles grâce à cette méthode, souvent en quelques secondes, tandis que seulement 40 % des étudiants y parvenaient, et cela leur prenait beaucoup plus de temps (Wineburg & McGrew, 2019).

L'essentiel est le suivant : ne vous fiez pas aux dires d'un site web. Vérifiez auprès de sources indépendantes et reconnues. Consultez Wikipédia. Vérifiez si des médias fiables ont relayé la même information. Si seul un site obscur ou un compte de réseau social aléatoire prétend détenir cette « exclusivité », il y a de fortes chances qu'elle soit fausse.

Pour les images et les vidéos, utilisez la recherche d'images inversée. Faites un clic droit sur une image et sélectionnez « Rechercher cette image sur Google », ou utilisez Google Lens sur mobile. Vous verrez ainsi instantanément si l'image a déjà été utilisée dans un autre contexte. Lors des inondations de Valence, d'innombrables images de catastrophes antérieures ont été partagées comme si elles étaient actuelles. Une recherche d'images inversée aurait permis de les repérer immédiatement.

La méthode SIFT vous offre un cadre : S’arrêter, Examiner la source, Trouver une meilleure couverture, Retracer les affirmations jusqu’à leur contexte d’origine (Caulfield, 2017). La première étape cruciale – S’arrêter – ne prend que cinq secondes et empêche le partage automatique qui alimente la désinformation. Lorsque vous voyez une information avec laquelle vous êtes automatiquement d’accord, c’est précisément à ce moment-là qu’il faut faire une pause.

Enfin, si quelque chose paraît trop parfait, trop extravagant ou trop pratique, c'est probablement le cas.

Votre liste de vérification de 30 secondes

STOP (3 secondes) : Avant de réagir, faites une pause. Observez votre réaction émotionnelle. La colère, la peur ou une validation suffisante sont des signaux d’alarme.

SCAN (5 secondes) : Vérifiez la présence d'un langage sensationnaliste, d'un auteur/date manquant, d'URL suspectes, d'une pression urgente ou d'affirmations qui semblent trop parfaites.

RECHERCHE LATÉRALE (15 secondes) : Ouvrez un nouvel onglet. Recherchez le nom de la source ou l’affirmation principale sur Google. Des médias indépendants et reconnus en parlent-ils ? Si une seule source peu connue le mentionne, soyez sceptique.

VÉRIFIER L'IMAGE (7 secondes) : Faites un clic droit et sélectionnez « Rechercher cette image sur Google » ou utilisez Google Lens. Cette image a-t-elle déjà été utilisée dans un autre contexte ?

En cas de doute, abstenez-vous. Attendre ne coûte rien. Diffuser de fausses informations a de réelles conséquences.

La règle des 30 secondes n'a pas pour but de faire de vous un expert en vérification des faits. Elle vise plutôt à instaurer une habitude : prendre un temps de réflexion avant de partager, ouvrir un deuxième onglet pour vérifier l'information et se demander : « À qui cela profite-t-il ? » Durant ces quelques secondes entre la consultation et le partage d'une publication, ce réflexe devient votre atout le plus précieux.

Références

  • Caulfield, M. (2017) Web literacy for student fact-checkers . Pullman, WA: Washington State University. Disponible sur : https://webliteracy.pressbooks.com/ (Consulté le 11 février 2026).
  • EU DisinfoLab (2024) Doppelganger : clones médiatiques au service de la propagande russe . Bruxelles : EU DisinfoLab. Disponible sur : https://www.disinfo.eu/doppelganger (consulté le 11 février 2026).
  • Commission européenne (2025) Flash Eurobaromètre 545 : enquête sur les médias sociaux 2025. Bruxelles : Commission européenne.
  • Observatoire européen des médias numériques (2024) Ce que notre première mesure révèle sur la désinformation sur les principales plateformes en Europe . Paris : Science Feedback. Disponible sur : https://science.feedback.org/first-measurement-disinformation-major-platforms-europe/ (Consulté le 11 février 2026).
  • London School of Economics (2024) Comment X a alimenté la désinformation sur les émeutes au Royaume-Uni . LSE Research for the World. Disponible sur : https://www.lse.ac.uk/research/research-for-the-world/society/x-undermined-democracy-uk-riots (Consulté le 11 février 2026).
  • Lyons, BA, Montgomery, JM, Guess, AM, Nyhan, B. et Reifler, J. (2021) « La surconfiance dans les jugements d'actualité est associée à la susceptibilité aux fausses nouvelles », Actes de l'Académie nationale des sciences , 118(23), e2019527118. doi : 10.1073/pnas.2019527118.
  • Vosoughi, S., Roy, D. et Aral, S. (2018) « La propagation des vraies et fausses nouvelles en ligne », Science , 359(6380), pp. 1146–1151. doi: 10.1126/science.aap9559.
  • Wineburg, S. et McGrew, S. (2019) « Lecture latérale et nature de l'expertise : lire moins et apprendre plus lors de l'évaluation de l'information numérique », Teachers College Record , 121(11), pp. 1–40. doi : 10.1177/016146811912101102.

Rédigé par

Façonner la conversation

Avez-vous quelque chose à ajouter à cette histoire ? Des idées d'interviews ou d'angles à explorer ? Faites-nous savoir si vous souhaitez écrire une suite, un contrepoint ou partager une histoire similaire.