Politique

Est-ce que Facebook s’est vraiment transformée depuis les élections de 2016?

FILE - In this Thursday, Oct. 17, 2019, file photo, Facebook CEO Mark Zuckerberg speaks at Georgetown University, in Washington. Ever since Russian agents and other opportunists abused its platform in an attempt to manipulate the 2016 U.S. presidential election, Facebook has insisted, repeatedly, that it’s learned its lesson and is no longer a conduit for misinformation, voter suppression and election disruption. (AP Photo/Nick Wass, File)

Barbara Ortutay et David Klepper - The Associated Press

Depuis que des agents russes et d’autres opportunistes ont abusé de sa plateforme pour tenter de manipuler l’élection présidentielle américaine de 2016, Facebook a insisté — à plusieurs reprises — sur le fait qu’elle avait appris sa leçon et n’était plus un vecteur de désinformation, de suppression des électeurs et de perturbation des élections.

Mais ce fut un parcours long et difficile pour le géant du réseautage social. Des observateurs critiques, ainsi que certains des employés de Facebook, affirment que les efforts de l’entreprise pour réviser ses règles et renforcer ses mesures de protection restent totalement insuffisants malgré les milliards de dollars dépensés. Quant à savoir pourquoi, ils soulignent la réticence persistante de la compagnie à agir de manière décisive pendant une grande partie de cette période.

«Suis-je préoccupé par l’élection? Je suis terrifié», a déclaré Roger McNamee, un responsable de capital de risque de la Silicon Valley et un des premiers investisseurs de Facebook devenu très critique à l’endroit de l’entreprise. «À l’échelle actuelle de l’entreprise, c’est un danger manifeste et immédiat pour la démocratie et la sécurité nationale.»

Le discours de l’entreprise a certainement vécu une transformation. Le chef de la direction Mark Zuckerberg fait maintenant référence à des défis pour l’entreprise qui étaient absents de ses propos en 2016 — parmi ceux-ci, de possibles troubles civils et une élection potentiellement contestée dont l’ampleur pourrait être aggravée par Facebook.

«Cette élection ne va pas se dérouler comme d’habitude», a écrit M. Zuckerberg dans un message Facebook de septembre, dans lequel il décrivait les efforts de l’entreprise pour encourager le vote et chasser la désinformation de sa plateforme. «Nous avons tous la responsabilité de protéger notre démocratie.»

Pourtant, pendant des années, les dirigeants de Facebook semblaient être pris au dépourvu chaque fois que leur plateforme — créée pour connecter le monde —était utilisée à des fins malveillantes. M. Zuckerberg a présenté maintes fois des excuses au fil des ans, comme si personne n’aurait pu prédire que des gens utiliseraient Facebook pour diffuser en direct des meurtres et des suicides, inciter à des nettoyages ethniques, promouvoir de faux remèdes contre le cancer ou tenter de manipuler des élections.

Alors que d’autres plateformes comme Twitter et YouTube ont également eu du mal à lutter contre la désinformation et les contenus haineux, Facebook se distingue par sa portée et son ampleur et, par rapport à de nombreuses autres plateformes, sa réponse plus lente aux défis identifiés en 2016.

Lente à réagir

Immédiatement après l’élection du président Donald Trump, M. Zuckerberg est resté sourd aux commentaires selon lesquels les «fausses nouvelles» diffusées sur Facebook auraient pu influencer les élections de 2016, parlant «d’une idée assez folle». Une semaine plus tard, il est revenu sur ses propos.

Depuis lors, Facebook a fait de multiples mea culpa concernant sa lenteur à agir à l’égard des menaces contre les élections de 2016 et a promis de faire mieux. «Je ne pense pas qu’ils soient parvenus à être plus à l’écoute», a affirmé David Kirkpatrick, auteur d’un livre sur l’essor de Facebook. «Ce qui a changé, c’est que de plus en plus de gens leur disent qu’ils doivent faire quelque chose.»

Plusieurs actions entreprises par Facebook

La société a embauché des vérificateurs externes, ajouté des restrictions plus d’une fois sur les publicités politiques et supprimé des milliers de comptes, de pages et de groupes qui, selon elle, se livraient à un «comportement coordonné inauthentique». C’est le terme de Facebook pour les faux comptes et les groupes qui ciblent de manière malveillante le discours politique dans des pays allant de l’Albanie au Zimbabwe.

Facebook a également commencé à ajouter des étiquettes d’avertissement aux messages contenant des informations erronées sur le vote et a parfois pris des mesures pour limiter la circulation de messages trompeurs. Ces dernières semaines, la plateforme a également interdit les publications qui nient l’Holocauste et s’est jointe à Twitter pour limiter la diffusion d’une histoire politique non vérifiée sur Hunter Biden, fils du candidat démocrate à la présidentielle Joe Biden, publiée par le quotidien conservateur «New York Post».

Tout cela place incontestablement Facebook dans une meilleure position qu’il y a quatre ans. Mais cela ne veut pas dire qu’elle est entièrement préparée à faire face aux menaces. Malgré des règles renforcées contre ces groupes, des milices violentes utilisent toujours la plateforme pour s’organiser. Récemment, le cas d’un complot déjoué pour kidnapper la gouverneure du Michigan a fait surface.

Une emprise de fer

Au cours des quatre années écoulées depuis les dernières élections, les revenus de Facebook et la croissance des utilisateurs ont grimpé en flèche. Cette année, les analystes s’attendent à ce que la société réalise des bénéfices de 23,2 milliards $ US et un chiffre d’affaires de 80 milliards $ US, selon FactSet. La plateforme compte actuellement 2,7 milliards d’utilisateurs dans le monde, comparativement à 1,8 milliard à ce moment de l’année en 2016.

Facebook fait face à un certain nombre d’enquêtes gouvernementales sur sa taille et ses parts de marché, y compris une enquête sur la concurrence par la Federal Trade Commission (FTC) des États-Unis. Une enquête antérieure de la FTC a infligé à Facebook une amende importante de 5 milliards $ US, mais n’a nécessité aucun changement supplémentaire.

«Leur priorité numéro un est la croissance, pas la réduction des impacts négatifs», a déclaré M. Kirkpatrick. «Et il est peu probable que cela change.»

Une partie du problème: M. Zuckerberg maintient une emprise de fer sur l’entreprise, mais ne prend pas au sérieux la critique sur lui ou sur sa plateforme, accuse Jennifer Grygiel, spécialiste des médias sociaux et professeure de communication à l’Université de Syracuse. Mais le public sait ce qui se passe, dit-elle. «Ils voient la désinformation liée à la COVID. Ils voient comment Donald Trump l’exploite. Ils ne peuvent pas l’ignorer.»

Facebook insiste sur le fait qu’il prend au sérieux le défi de la désinformation, en particulier en ce qui concerne les élections.

«Les élections ont changé depuis 2016, tout comme Facebook», a déclaré la société dans un communiqué exposant ses politiques en matière d’élection et de vote. «Nous avons plus de personnes et une meilleure technologie pour protéger nos plateformes, et nous avons amélioré nos politiques de contenu.»

Mme Grygiel soutient que de tels commentaires relèvent davantage des relations publiques que d’un «modèle commercial éthique».

M. Kirkpatrick note que les membres du conseil d’administration et les dirigeants qui ont montré leur désaccord avec le chef de la direction — un groupe qui comprend les fondateurs d’Instagram et de WhatsApp — ont quitté l’entreprise.

Le gouvernement fédéral a jusqu’à présent laissé Facebook à lui-même, un manque d’imputabilité qui n’a fait que renforcer l’entreprise, selon la représentante américaine Pramila Jayapal, une démocrate de Washington qui a questionné M. Zuckerberg de manière serrée lors d’une audience au Capitole en juillet.

Les étiquettes d’avertissement ont une valeur limitée si les algorithmes sous-jacents à la plateforme sont conçus pour amener le contenu polarisant vers les utilisateurs, a-t-elle fait valoir. «Je pense que Facebook a fait des choses qui indiquent qu’elle comprend son rôle. Mais cela a été, à mon avis, bien trop peu, trop tard.»

Barbara Ortutay et David Klepper, The Associated Press

Articles récents du même sujet

Exit mobile version