Facebook est-il un danger pour la démocratie ?


LE MONDE Par 

Quand Susanna Lazarus s’est éveillée, ce vendredi 24 juin, et qu’elle a allumé la télévision, la stupeur l’a envahie. Son pays, le Royaume-Uni, venait de choisir de quitter l’Union européenne, à près de 52 %. Pourtant, dans les jours qui précédaient, cette Londonienne de 27 ans n’avait rien vu venir. Sur Facebook, presque tous ses amis, issus comme elle de la cosmopolite capitale économique du pays, avaient partagé les arguments du « Remain ». La campagne adverse, celle du « Leave », était absente de son flux. « Quand je suis allée me coucher, hier soir, je me sentais optimiste, et une grande part de cet espoir venait de l’état d’esprit que je percevais sur mes fils sociaux », a confessé cette journaliste dans un article du magazine Radio Times, au lendemain du vote. Et de conclure, amère : « Hier, mon fil Facebook m’a servi un gros mensonge. »

Un tel témoignage prêtait bien sûr le flanc à la critique. « Franchement, si vous êtes assez bête pour faire confiance aux réseaux sociaux pour vous informer et vous forger un avis, vous méritez ce genre de surprise », l’a sévèrement tancée Rosemary, de Genève, dans les commentaires. Un autre internaute, David, a pris un peu de hauteur : « Nous avons tous tendance à échanger en priorité avec des gens qui partagent nos points de vue. » Susanna n’avait pas caché vivre dans une espèce de « bulle », entourée de gens qui lui ressemblent. Dans la région de Londres, 40 % des votants ont pourtant choisi le Leave. Mais Susanna comptait sans doute très peu d’entre eux parmi ses « amis numériques ».

Facebook nous « ment »-il, comme l’a écrit la jeune Londonienne après son douloureux réveil ? La question est devenue extrêmement sensible, à mesure que le réseau social dominant s’est mué en un lieu d’information et de débat – alors qu’il n’était à l’origine qu’une espèce de répertoire, inspiré des trombinoscopes des facs américaines. Douze ans après sa création par Mark Zuckerberg, The Social Network – pour reprendre le titre du film qui narre ses origines – compte 1,13 milliard d’utilisateurs quotidiens (dont 24 millions de Français). Et parmi eux, 44 % déclarent l’utiliser pour s’informer, selon le Reuters Institute for the Study of Journalism, de l’université d’Oxford (Royaume-Uni).

Sur le réseau, l’intérêt pour le débat public et la politique est encore plus grand pendant les campagnes électorales, comme actuellement en France ou aux Etats-Unis. De janvier à septembre, 103 millions de personnes – soit la moitié des membres américains de Facebook − ont interagi avec des contenus concernant la présidentielle du 8 novembre. Fin 2015, la plate-forme a même mesuré que l’élection était, aux Etats-Unis, le premier sujet de conversation de ses utilisateurs, devant les attentats ou la crise des réfugiés.


« Une chose est sûre : le débat public est sur ces plates-formes », résume Axel Calandre, responsable de la campagne numérique de Nicolas Sarkozy. Pour preuve, ces milliers de pages partisanes, outre-Atlantique, dont l’audience cumulée rivalise sur Facebook avec celle de CNN ou du New York Times, selon une enquête du New York Times Magazine. Les grands médias ne sont plus qu’une partie d’un espace public bien plus vaste, au sein duquel le réseau social américain occupe une place de plus en plus centrale.

Or, quels que soient leurs biais, les médias traditionnels fonctionnent avec des règles qui reflètent celles des sociétés démocratiques : ils font entendre différents points de vue, s’attachent à proposer un équilibre dans les sujets qu’ils abordent, à respecter le principe du contradictoire… Dans certains cas, ils sont même soumis à une régulation, à l’image des radios et télévisions en France, qui se voient imposer par le CSA de respecter le pluralisme et l’équilibre des temps de parole en politique.

Autant de principes qui sont étrangers à Facebook. Ce dernier n’a pas été conçu comme un média. C’est « avant tout un service qui vous permet de vous connecter avec vos amis et votre famille », prêche son responsable produit, Chris Cox, proche de Mark Zuckerberg et apôtre de Facebook parcourant le monde entier. Conséquence formulée par sa responsable des relations avec les politiques, Katie Harbath : « Nous sommes agnostiques sur le contenu, nous n’avons pas d’avis éditorial. »Facebook se présente comme « une plate-forme neutre et ouverte »,insiste-t-elle.

FACEBOOK EST AVANT TOUT UNE USINE À PUBLICITÉ CIBLÉE. SUR MOBILE, ELLE RIVALISE AVEC GOOGLE POUR LA PREMIÈRE PLACE ET DÉGAGE ENVIRON 6 MILLIARDS D’EUROS DE REVENUS… PAR TRIMESTRE.

Le réseau réfute toute notion de responsabilité éditoriale. En revanche, il exerce bien une forme de sélection des contenus, par le biais d’un algorithme. Elle est expliquée dans un document de référence publié en juin par Facebook pour expliciter les « valeurs » du fil d’actualité – ce flux de contenus choisis par un algorithme, que chacun voit quand il se connecte au réseau :

« Notre but est de montrer à chaque personne le genre d’histoires qu’elle veut le plus voir, d’après nos indications. Nous agissons ainsi non seulement parce que nous pensons que c’est la bonne chose à faire, mais aussi parce que c’est bon pour notre business. »

Un rappel salutaire : Facebook est avant tout une usine à publicité ciblée. Sur mobile, elle rivalise avec Google pour la première place et dégage environ 6 milliards d’euros de revenus… par trimestre.

Il y a donc un hiatus entre ce qu’est Facebook et ce pour quoi il est utilisé, en tout cas quand il s’agit d’information. Ce hiatus explique la mésaventure de Susanna Lazarus, et une série de prises de parole récentes pointant des effets de cloisonnement. En France, ce sont les opposants à la loi travail qui sur Facebook voient surtout des contenus confortant leur vision, sans vraie porosité avec les défenseurs du texte. Ou les adversaires du burkini qui échangent en cercle fermé, comme le font, dans le camp opposé, ceux qui dénoncent l’islamophobie. Faute d’une information commune, ces différents groupes risquent de se retrouver dans l’incapacité à débattre ensemble, ce qui est pourtant un fondement de la culture démocratique.

Parfois, la logique communautaire de Facebook épouse les fractures de conflits bien plus terribles. C’est le cas en Syrie, selon le chercheur Yves Gonzalez-Quijano, spécialiste des cultures numériques du monde arabe. A l’origine, pointe-t-il, Facebook est associé à une « mythologie positive », celle des « printemps arabes » de 2011. Mais cette année-là, un faux blog, « A gay girl in Damascus », en fait tenu par un Américain, crée le trouble. Et puis, à mesure que la guerre civile s’intensifie, les fils sociaux deviennent « un cocktail explosif où les discours de haine s’entre-alimentent de vidéos glaçantes de corps en morceaux, de tortures, et autres images invérifiables ». Les clichés et les points de vue défilent, sans médiation, sans notion d’équilibre.

D’où le constat posé par cet enseignant-chercheur de l’université Lumière-Lyon-II, dans un entretien à Big Browser, un blog du Monde,au printemps 2016 :

« On navigue à travers une succession de filtres générés par les gens que l’on “suit” ou que l’on a ajoutés à sa liste d’“amis”. On ne s’ouvre pas à tous les possibles, au contraire, on a accès à des informations filtrées par un réseau coopté. On fonctionne en circuit fermé. »

A des milliers de kilomètres des affres syriennes, la campagne présidentielle américaine a elle aussi révélé la puissance de ces « filtres ». Aux Etats-Unis, Facebook range ses utilisateurs parmi 98 catégories politiques, afin de pouvoir vendre un ciblage très fin aux annonceurs. En mai, le Wall Street Journal a créé un outil permettant de comparer le fil d’un utilisateur classé comme « très libéral » à celui d’un autre, « très conservateur ».

Résultat : deux visions du monde radicalement différentes. Par exemple, sur une question clivante comme celle de l’avortement, le fil « bleu » (libéral) remonte une vidéo des manifestations en Pologne contre son interdiction, tandis que le fil « rouge » (conservateur) renvoie vers une pétition contre le financement public du planning familial.


Comment Facebook en vient-il à nous montrer des contenus aussi différents ? Avec son algorithme, l’entreprise californienne veut répondre à l’abondance des publications. Il s’agit de les écrémer en détectant, pour chaque utilisateur, les plus pertinentes. Pour cela, le réseau exploite les informations dont il dispose, en temps réel, pour déterminer, parmi toutes les publications des « amis » d’un utilisateur, celles avec lesquels il a la plus grande « affinité » ; mais aussi à quelle place il faut les afficher sur son fil de contenus Facebook. Parmi les milliers de critères utilisés, les plus importants dépendent du comportement individuel de l’utilisateur : ses clics, ses partages, ses likes… Mais les actions de ses amis sont aussi prises en compte. Accepter un ami sur Facebook, c’est donc accepter d’être influencé par ses choix.

S’il ne dévoile pas le détail de son algorithme, par ailleurs quotidiennement affiné, le réseau n’en cache pas la logique générale : « Les actualités qui s’affichent dans votre fil d’actualité sont sélectionnées en fonction de votre activité et de vos contacts sur Facebook », explique l’une de ses pages d’aide, ajoutant :

« Si vous avez l’impression que vous ne voyez pas toutes les actualités ou que vous voyez dans votre fil d’actualité des actualités qui ne vous intéressent pas, vous pouvez régler vos paramètres. »

Dans les faits, peu d’utilisateurs utilisent cette possibilité. Et selon une étude publiée en 2015 par des chercheurs américains, 63 % des quarante utilisateurs interrogés ignoraient même que leur fil d’actualité était filtré par un algorithme. Ils couraient donc le risque de croire que ce qu’ils voyaient était une vision fiable de l’actualité à un instant T, alors qu’il s’agissait d’une sélection fondée sur leurs actions et celles de leurs amis.

Activiste politique et homme de médias, l’Américain Eli Pariser a donné un nom à ce phénomène : les « filter bubbles » (bulles de filtres) – titre de son ouvrage paru en 2012 (The Filter Bubble, Penguin, non traduit). Ces bulles créent une « auto-propagande », a exposé, dans un entretien au magazine Time, l’activiste cofondateur des sites Upworthy et Avaaz.org :

« Vous vous endoctrinez vous-même avec vos propres opinions. Vous ne réalisez pas que ce que vous voyez n’est qu’une partie du tableau,Et cela a des conséquences sur la démocratie : pour être un bon citoyen, il faut que vous puissiez vous mettre à la place des autres et avoir une vision d’ensemble. Si tout ce que vous voyez s’enracine dans votre propre identité, cela devient difficile, voire impossible. »

Or, Facebook est le réseau social le plus propice aux « filter bubbles »,analyse Benoît Thieulin, membre du Conseil national du numérique :

« Toutes les plates-formes à algorithmes sont concernées, mais Facebook concentre deux effets d’enfermement, Le premier effet est lié à sa nature de réseau social symétrique, qui relie des amis qui vous acceptent eux aussi comme amis, à la différence de Twitter, qui est un peu plus ouvert et vous permet de suivre des gens qui ne vous suivent pas. Le second est l’effet de l’enfermement algorithmique. »
« LA BULLE, C’EST NOUS QUI LA CRÉONS. PAR UN MÉCANISME TYPIQUE DE REPRODUCTION SOCIALE. LE VRAI FILTRE, C’EST LE CHOIX DE NOS AMIS, PLUS QUE L’ALGORITHME DE FACEBOOK » DOMINIQUE CARDON, CHERCHEUR

Pour contrer ces critiques, le réseau social a fait publier dans la prestigieuse revue Science, en mai 2015, une vaste étude mesurant « l’exposition à une information diverse sur Facebook », fondée sur l’observation de ses utilisateurs se déclarant « conservateurs » ou « libéraux » (soit 9 % des membres de Facebook aux Etats-Unis). Ses résultats confirment une polarisation de la circulation des contenus, mais battent aussi en brèche certaines idées reçues.

Selon l’étude, s’ils étaient exposés de façon aléatoire aux contenus partagés sur Facebook, les « conservateurs » en verraient 45 % qui ne sont pas majoritairement partagés par les gens de leur bord politique, et les « libéraux » 40 %. Mais comme les membres n’ont accès qu’aux publications partagées par leurs « amis », cette proportion de contenu « différent » tombe à 34 % pour les « conservateurs » et 23 % pour les « libéraux ». Ensuite, la sélection opérée par l’algorithme rabote encore les chiffres à 33 % et 22 %. Enfin, si l’on ne compte que les liens sur lesquels les utilisateurs cliquent finalement, les proportions descendent à 29 % et 20 %.

Quelles conclusions tirer ? « Sur Facebook, vous êtes exposé à une large diversité de contenus, interprète Katie Harbath. Il n’y a pas que des pro-Clinton et des pro-Trump discutant entre eux. Il y a une zone commune. » Et l’effet de bulle ? « Il est proche de celui qu’on rencontre dans la vraie vie, répond cette ancienne de la campagne présidentielle du républicain Rudy Giuliani. Chacun a des amis qui pensent comme lui mais aussi d’autres qui ont des opinions différentes. »

« La leçon de l’étude de Facebook, c’est que le filtre est en nous, sourit Dominique Cardon, chercheur au laboratoire des usages d’Orange et auteur de A quoi rêvent les algorithmes ? (Seuil, octobre 2015). La bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. »

Selon certains travaux, le cercle des amis Facebook, souvent acceptés rapidement et sans engagement, est plus large que celui des gens régulièrement côtoyés dans la vraie vie, et donc plus hétérogène, sauf pour les individus les plus politisés. En revanche, comme l’indique une étude du Pew Research Center parue fin octobre, une majorité d’Américains jugent « stressant et frustrant » le fait de parler de politique sur les réseaux sociaux, avec des gens d’un autre bord, en raison notamment du ton.

Historien des médias, Patrick Eveno rappelle que la recherche d’un entre-soi est ancienne : « Le lecteur assidu de L’Humanité dans les années 1950 ne regardait ni Le Figaro, ni Le Monde, ni La Croix ; et réciproquement. » Une différence de taille, toutefois : le cloisonnement entre lecteurs de journaux était un choix actif, une inscription assumée dans une famille de pensée politique. Celui de Facebook est subi et parfois inconscient.

Les défenseurs du réseau estiment donc qu’il ne fait que reproduire la société : « Cela fait vingt ans que les Etats-Unis se polarisent de plus en plus politiquement », souligne Katie Harbath. Le logiciel ne ferait que refléter un champ démocratique fracturé, composé de différentes tribus antagonistes, comme le Tea Party ou le courant Alt-Right américains.

Lire aussi :   Accusé de favoriser les démocrates, Facebook contre-attaque

Cette fragmentation est accentuée par les effets du marketing politique, devenu intense sur Facebook, même si, pour les groupes qui l’utilisent, il est aussi un moyen de sortir de leur cercle d’habitués. Une partie de la publicité est en effet acquise par des partis, candidats ou lobbies qui « sponsorisent » des billets adressés à des internautes ciblés en fonction de leur âge, leur sexe, leurs centres d’intérêt, leur lieu de résidence, leur profession… Par exemple, dans la campagne française, à droite, Alain Juppé, Nicolas Sarkozy ou François Fillon peuvent faire parvenir leur programme sur la santé à des gens qui ont aimé la page d’une organisation de médecins généralistes, ou la vidéo d’un discours sur l’éducation à des enseignants.


Massive aux Etats-Unis, cette publicité politique est également généralisée en France, mais interdite dans les six mois qui précèdent une élection – en l’occurrence depuis le 1er octobre pour ce qui concerne la présidentielle de 2017 (dont le premier tour aura lieu le 23 avril).

« En période de campagne, Facebook permet surtout d’augmenter la mobilisation au sein d’une bulle, pas forcément de propager ses idées à des poches très variées », estime Elliot Lepers, spécialiste des campagnes en ligne, notamment contre la loi El Khomri ou pour la candidate écologiste Eva Joly.

« Avec le jeu des partages, les communautés qu’on peut toucher sont malgré tout plus larges qu’avant l’arrivée des réseaux sociaux »,nuance Gautier Guignard, responsable numérique de la campagne de François Fillon, qui comme Alain Juppé a 150 000 fans sur sa page Facebook officielle, Nicolas Sarkozy culminant, lui, à près d’un million.

En politique, la quête d’audience se fait avec les mêmes règles que dans d’autres domaines, et la plate-forme a la réputation de favoriser les contenus les plus simplistes ou les plus tranchés. Un travers lié à la mécanique du share : les contenus déclenchant une émotion chez l’utilisateur sont plus partagés que les autres, et donc mieux traités par l’algorithme.

Cette « règle du jeu » a un impact sur la production des médias, mais aussi l’expression des politiques. Jusqu’à l’Elysée, où François Hollande s’est mis depuis l’été à publier, sur Facebook, des messages personnels, rompant avec son registre de communication précédent, plus institutionnel.

Certains acteurs sont des spécialistes de ces logiques de buzz : les milliers de pages militantes non officielles qui, aux Etats-Unis ou en France, se sont taillé une place centrale sur certains créneaux, par exemple la Manif pour tous ou l’antihollandisme – une page comme « Hollande dégage » rassemblant plus de 800 000 fans.


Pour Zeynep Tufekci, auteur d’une chronique parue, en mai, dans le New York Times :

« Sur Facebook, la prime au partage et aux commentaires s’applique aux contenus qui génèrent une joie hors-norme ou une rage profonde, ou qui deviennent viraux, qu’il s’agisse de canulars, de théories du complot, de photos de bébés ou d’informations importantes. »

La professeure assistante à l’université de Caroline du Nord souligne, comme une conséquence, que sur le réseau créé par Mark Zuckerberg, « Donald Trump s’en sort mieux que les autres candidats ».

« Actuellement, on a l’impression que ceux qui profitent le plus de la situation, c’est Trump et Daech [acronyme arabe de l’organisation Etat islamique] », résume abruptement Benoît Thieulin. En France, a été mise en évidence de longue date l’importance de la « fachosphère », cette nébuleuse d’extrême droite très active en ligne, à laquelle les journalistes Dominique Albertini et David Doucet viennent de consacrer un livre (La Fachosphère, Flammarion, 336 pages, 20,90 euros). Or ceux qui se vivent comme les soldats de ce qu’ils appellent la « réinformation » ont intégré le fait que les algorithmes « n’ont pas de conscience politique » et traitent toutes les opinions sur un pied d’égalité.

Avant l’extrême droite, d’autres groupes minoritaires dans les médias, comme les altermondialistes, le camp du « non » au référendum européen de 2005 ou les défenseurs des libertés sur Internet, ont aussi profité des réseaux pour bénéficier de relais qu’ils trouvaient difficilement ailleurs, rappelle Benoît Thieulin, qui, comme les responsables numériques des candidats à la primaire de droite, pointe le « progrès démocratique » d’abord apporté par Facebook.

La radicalité constatée sur les réseaux sociaux est le fruit d’un travail d’occupation mené par des militants s’estimant lésés par les médias traditionnels. Dans cette bataille souterraine, Facebook pose peu de limites et la popularité des contenus prime sur leur véracité – c’est là un autre travers du réseau. Au point qu’est évoquée l’émergence d’une société de la « post-vérité », selon le titre d’une tribune remarquée de Katherine Viner, rédactrice en chef du Guardian. Certes, les fausses informations ne datent pas d’hier, reconnaît-elle dans ce texte écrit après le traumatisme d’une campagne du Brexit pleine de faux-semblants : « Ce qui est nouveau, c’est qu’aujourd’hui, les rumeurs et les mensonges sont autant lus que les faits gravés dans le marbre – et parfois même plus. »

La conclusion fait écho à la vérification menée par le site Buzzfeed sur 1 000 publications de six grandes pages Facebook ultra-partisanes américaines : 38 % des contenus étaient « partiellement faux ou trompeurs » sur les pages de droite, 19 % sur celles de gauche.


En France, Alain JUppé s’est ouvertement plaint, dans un entretien au Journal du dimanche, d’être la cible de « fadaises », sur Facebook notamment :

« Les réseaux sociaux sont, en quelque sorte, la poubelle de l’univers, A les lire, je serais “Ali Juppé”, je serais “marié avec une musulmane”, je serais “le grand mufti de Bordeaux”, j’aurais construit “la plus grande mosquée d’Europe”… »

L’équipe du candidat songe d’ailleurs à lancer une « cellule » de démontage de rumeurs inspirée des rubriques de « fact-checking » de la presse, comme Les Décodeurs du Monde ou Desintox de Libération,explique Eve Zuckerman, la responsable de sa campagne numérique.

Face aux critiques, Mark Zuckerberg campe jusqu’ici sur ses positions : « Nous sommes une entreprise de technologie, pas un média », a répété le tutélaire fondateur de Facebook, fin août, alors qu’en Allemagne, certains l’accusaient de ne pas combattre assez activement les propos haineux. Mais la question des responsabilités que doit assumer l’entreprise, en contrepartie de son rôle croissant dans l’information et le débat public, est désormais clairement posée. Et malgré son discours invariant, Facebook n’est pas insensible aux pressions : il a fini par assouplir sa ligne en autorisant la circulation de « La petite fille au napalm », célèbre photographie de Nick Ut, symbole de la guerre du Vietnam, après une censure initiale pour cause de nudité. Il s’est aussi lancé avec Google et une large coalition de médias – dont Le Monde – dans le projet Firstdraft, qui vise à combattre les informations manipulées.

Au-delà, certains réclament une forme de régulation ou de « pondération », des logiciels des plates-formes. « Vos algorithmes doivent donner une place aux opinions opposées et aux informations importantes, pas seulement à ce qui est le plus populaire ou le plus auto-convaincant », avait lancé Eli Pariser aux patrons de Facebook ou Google, lors de sa conférence de 2011. Mais les utilisateurs le veulent-ils ?

La connaissance du fonctionnement des algorithmes, et donc de Facebook, est pour beaucoup devenu un enjeu démocratique. « Je suis d’avis que les algorithmes doivent être plus transparents afin que les citoyens soient conscients des effets qu’ils peuvent avoir sur leur utilisation des médias », a ainsi tenu à déclarer la chancelière allemande Angela Merkel lors de l’ouverture des journées des médias, à Munich, le 25 octobre. « Il faut connaître leur préconception du monde »,argumente Bruno Patino, directeur éditorial d’Arte. MM. Thieulin et Cardon, comme d’autres, insistent sur le besoin de développer en France une « culture critique » et une « éducation » aux algorithmes.

« Après une période où les technologies ont amené un grand progrès dans le débat public, on vit une période de ressac, pense Benoît Thieulin. On a l’impression d’être face à une maladie infantile des réseaux sociaux, avec des débats en temps réel superficiels, du complotisme… On n’a pas encore trouvé comment la soigner. Mais ça ne veut pas dire que les réseaux sont en soi mauvais pour le débat démocratique. »




Haut de page