Soutenez

Facebook vient de prouver que le problème des fausses nouvelles est pire qu’on pensait

Il y a de ces moments fortuits dans la vie qui viennent prouver qu’on avait raison depuis le début. L’inspecteur viral n’y prend aucun plaisir (OK, un peu), mais avec la nouvelle nous annonçant que les algorithmes qui gèrent les «trending topics» (sujets populaires) de Facebook se sont mis à publier des fausses nouvelles quelques jours à peine après leur mise en service, il se permet de dire: «Je vous l’avais dit!»

Pour ceux qui ne connaissent pas l’histoire, en voici le résumé: Facebook donne accès à une boîte «trending topics» à la majorité de ses usagers anglophones. Dans cette boîte apparaissent les cinq ou six sujets qui cartonnent le plus sur le réseau. Auparavant, des employés de Facebook s’appliquaient à donner le contexte de ces sujets de l’heure. En s’appuyant sur des sources d’information crédibles, ils écrivaient un court texte qui expliquant pourquoi le sujet était populaire.

Par exemple, si Prince se retrouvait dans ce palmarès peu après qu’on eut appris sa mort, ils écrivaient «Le chanteur Prince a été retrouvé mort ce matin dans sa demeure». Rien de bien controversé, quoi.

Or, voilà que le site Gizmodo révélait en mai que les personnes qui s’occupaient de la boîte trending topics faisaient preuve de partisanerie en favorisant des nouvelles un peu plus de gauche.

À l’heure où Facebook contrôle une vaste partie du marché de l’information, la révélation a eu l’effet d’une bombe. Est-ce que Facebook a la responsabilité d’être impartial? S’il n’a pas cette responsabilité, quel effet cela peut-il avoir sur notre accès à l’information?

Il faut croire que Facebook a pris la controverse au sérieux, car le réseau social a annoncé vendredi dernier que ce seraient désormais des algorithmes, et non des humains, qui géreraient la boîte « trending topics ».

Trois jours plus tard, cette boîte mettait déjà de l’avant une fausse nouvelle.

En gros,voici l’affaire: la journaliste Megyn Kelly du réseau Fox News se retrouvait en tête du palmarès lundi, après qu’un article du magazine Vanity Fair eut évoqué la possibilité que son contrat avec Fox News ne soit pas renouvelé à l’automne. Rappelez-vous que c’est elle qui avait été humiliée publiquement sur Twitter par Donald Trump après un débat télévisé où elle avait tenté de le confronter en parlant de sa misogynie.

Mais, lundi, quand on regardait ce que la boîte trending topics nous racontait sur Megyn Kelly, on trouvait ceci:

imrs.php

«DERNIÈRE HEURE: Fox News répudie la traîtresse Megyn Kelly et la démet de ses fonctions après qu’elle eut appuyé officiellement Hillary Clinton», nous expliquait les « trending topics ».

En fait, cette phrase provenait d’un site de fausses nouvelles ultra-partisan de droite qui s’était inspiré de l’article de Vanity Fair pour inventer une histoire correspondant à son point de vue (c’est une tactique courante).

Plusieurs médias ont profité de cette bévue de la boîte « trending topics » pour se moquer de Facebook, avançant que c’était là la preuve que les robots ne remplaceront jamais les humains, etc.

Mais l’inspecteur y a vu quelque chose d’autre. Quelque chose de beaucoup plus inquiétant.

Et ça, les amis, c’est la preuve que quelque chose ne tourne pas rond dans la diffusion des informations à l’ère de Facebook. Encore une fois, le mensonge gagne.

Les algorithmes de Facebook ne sont pas intelligents. Ils ne font que repérer l’article qui est le plus populaire à un moment donné et recracher ce qu’il raconte.

Donc, au moment où TOUT LE MONDE (aux États-Unis, du moins) parlait de Megyn Kelly, c’est un article provenant d’un site de fausses nouvelles qui circulait le plus. Pas celui d’un média d’information légitime, mais une invention. Une lubie.

En d’autres mots, l’article le plus populaire traitant du sujet le plus populaire de la journée rapportait une fausse nouvelle.

Et ça, les amis, c’est la preuve que quelque chose ne tourne pas rond dans la diffusion des informations à l’ère de Facebook. Encore une fois, le mensonge gagne.

C’est ce qui arrive quand la présentation des nouvelles est contrôlée par un robot qui n’assigne de la valeur à une information que sur la base de sa popularité. Ce ne sont pas des informations importantes qui circulent, mais des informations qui sont populaires. Sont-elles vraies? Who cares?

Et comme nous l’apprenait dimanche le New York Times Magazine dans un article assez troublant, des acteurs politiques extrémistes ont très bien compris cela. Plutôt que de prendre le temps d’écrire des articles qui valent la peine d’être lus, des gens d’affaires futés ont compris qu’il est préférable d’analyser simplement ce qui est populaire auprès d’un certain lectorat et de lui donner ce qu’il veut.

Donc, par exemple, on crée une page anti-Clinton et on la remplit de memes, de photos, d’articles et de publications Facebook qui mettent de l’avant des «faits» (qu’ils soient vrais ou non importe peu) qui «prouvent» que Clinton est le diable incarné. Vu que notre auditoire est gagné conquis d’avance, ces publications circulent énormément (on ne partage généralement pas quelque chose qui nous contredit, quand même!)

Et ça marche. Très bien, même.

Si un réseau social attribue de la valeur à une information en fonction de sa popularité et non en fonction de son importance, les sources d’information populaires primeront, peu importe qu’elles soient fiables ou non.

Voilà pourquoi, à une époque où tous les médias d’information peinent à frotter deux cennes noires ensemble, un des hommes interviewés par le New York Times Magazine, personnage propriétaire de quelque 120 pages anti-Clinton, se targue de générer un revenu comparable à celui d’un médecin, soit 20 000$ PAR MOIS. Ils sous-traite l’écriture de ses articles à un couple de Philippins et ne se soucie pas trop de ce que ceux-ci écrivent, tant que ça circule. Qu’on mente ou pas, l’important, c’est que les gens partagent.

Voilà un concours darwiniste numérique que les médias d’information sérieux ne peuvent pas gagner.

Si un réseau social attribue de la valeur à une information en fonction de sa popularité et non en fonction de son importance, les sources d’information populaires primeront, peu importe qu’elles soient fiables ou non. Les sites de pièges à clics, de fausses nouvelles et d’actualités ultra-partisanes ont une «génétique» beaucoup mieux adaptée à la «jungle» de Facebook que les médias d’information sérieux.

C’est la loi de la jungle, et nous, les médias d’information, sommes des souris.

L’inspecteur ne sait pas si un précédent existe dans le monde développé pour ce genre de situation. Il  ignore également quel effet cela aura sur l’avenir de nos sociétés.

On verra bien.

Articles récents du même sujet

Mon
Métro

Découvrez nos infolettres !

Le meilleur moyen de rester brancher sur les nouvelles de Montréal et votre quartier.