Prêcheurs de la fausse nouvelle

fausse-nouvelle

Prêcheurs de la fausse nouvelle

Comment réagir aux faussaires de l’information

Barack Obama en avait parlé dans un discours un peu avant l’élection américaine du 8 novembre dernier, mais après la victoire de Trump, cet enjeu a atterri (ou s’est écrasé) au beau milieu de la sphère publique : les fausses nouvelles.

En effet, au lendemain (de veille) des présidentielles, de nombreux critiques ont exprimé des inquiétudes quant au fait que les articles mensongers – provenant de sites dits « hyperpartisans » ou alors de sites créés purement pour générer du trafic à des fins lucratives – auraient peut-être influencé le résultat du scrutin. Pourtant, les manchettes incendiaires, ça n’a rien de neuf, constateront certains, avec raison. Par contre, leur omniprésence dans nos vies par le biais des médias sociaux – surtout Facebook – constitue une réalité beaucoup plus récente. Et ça devient problématique.

Près de la moitié des Américains parlent de Facebook comme de leur première source de nouvelles et le site est visité par 1,2 milliard de personnes chaque jour. Cela n’empêche pas Mark Zuckerberg, fondateur et PDG du célébrissime réseau, de continuellement déclarer qu’il est le dirigeant « d’une entreprise de technologie, pas d’une compagnie de médias ». Ça commence à sonner faux. N’en déplaise au grand patron, on parle de « médias » sociaux, pas de « technologies » sociales.

Pourquoi cette volonté de se décrire ainsi? Pourquoi ce refus de reconnaître que Facebook et les autres plateformes semblables constituent bel et bien des médias de nouvelles en bonne et due forme? La réponse se trouve peut-être dans une volonté exprimée par Zuckerberg à plusieurs reprises : éviter que Facebook se lance dans le journalisme éditorial. Voulant éviter la partisanerie, il se méfie d’incarner celui qui départage le vrai du faux. « Définir ce qu’est “la vérité”, c’est compliqué, se défend-il. Nous devons être extrêmement prudents dans notre ambition de devenir nous-mêmes des arbitres de la vérité. »

À première vue, cette pensée paraît noble, humaine. Là où ça se corse, c’est lorsque Zuckerberg affirme qu’il est « extrêmement improbable » que les fausses nouvelles aient affecté le résultat de l’élection. Il affirme que ce sont plutôt les « expériences vécues » qui ont ce genre d’influence. Or, si l’on considère qu’en moyenne, les gens passent près d’une heure par jour sur Facebook (une estimation qui semble timide, d’ailleurs), n’est-il pas raisonnable d’affirmer que passer du temps sur les médias sociaux s’inscrit dans ces fameuses « expériences vécues »? Il paraît bizarre de nier que Facebook fait bel et bien partie de la vie.

D’autant plus que Zuckerberg ne cesse de se targuer que, grâce à Facebook, 2 millions de personnes ont été amenées à voter. Si cela est vrai, n’est-il pas possible que, par la même logique, ces mêmes gens aient pu être influencés dans leur intention de vote? En parler comme d’une chose « extrêmement improbable » paraît plutôt borné. Par exemple : la fausse manchette selon laquelle le pape François soutenait la candidature de Trump a été partagée près d’un million de fois; elle a assurément eu un impact sur un certain nombre de citoyens.

Cette volonté de voir Facebook mettre ses culottes commence à se répandre, dans la sphère publique comme chez les salariés de Facebook. En effet, beaucoup sont d’avis que le géant du web ne prend pas ses responsabilités en ce qui a trait au problème des fausses nouvelles. Ce n’est d’ailleurs pas la première fois qu’on reproche à Facebook son manque de jugement par rapport aux contextes particuliers (souvenons-nous de l’épisode de la « Napalm girl »). Certes, ne pas vouloir jouer les éditorialistes est une ambition tout à fait compréhensible. Cependant, puisque Facebook occupe une si grande place dans l’échiquier médiatique, l’inaction de son PDG face à cette polémique devient une forme d’appui pour les propagandistes et les mauvais farceurs. Comme l’affirme Joshua Benton, directeur du Nieman Journalism Lab de l’Université Harvard : « Opérer à cette échelle vient avec des responsabilités. »

Google et Facebook ont semblé avoir compris le message, du moins en partie. Les deux géants ont pris la décision de bannir les sites considérés comme mensongers de leur réseau publicitaire. Un pas dans la bonne direction, mais un geste trop timide selon beaucoup. En effet, ce sont les usagers qui partagent les publications mensongères, pas les entreprises qui font de la pub. Et voilà le noyau du problème.

L’immense majorité des publications Facebook qui défilent sur nos écrans, ce sont celles de nos amis, nos proches, nos collègues. Ce sont eux les intermédiaires qui choisissent de partager quelque chose qui a attiré leur attention sur le web. Et quels sont les critères de la plupart d’entre nous lorsque vient le temps de considérer ce qui mérite d’être partagé ou non? La fiabilité des sources? La rigueur journalistique de l’auteur? Le respect d’un code éthique quelconque? Rarement, vous en conviendrez. On se trouve plutôt dans une quête de réactions. Des « likes ». Des partages. Un buzz. Il est très inhabituel qu’on cherche à « informer » nos proches. Conséquemment, cela change le modus operandi des médias. Will Oremus clarifie :

L’algorithme de Facebook a un effet encore plus subtil et insidieux qui n’a pratiquement pas été abordé dans toute cette saga. Il s’agit des incitatifs que Facebook crée pour les médias qu’ils soient mensongers ou honnêtes – pour écrire des articles dans l’optique d’accumuler les « likes », les clics et les partages des usagers du réseau.

Comme les organisations médiatiques dépendent des usagers Facebook pour la prolifération de leur contenu, chaque usager Facebook est, par la force des choses, devenu rédacteur en chef, contrôleur, gatekeeper. Et comme, sur cette plateforme, les motivations des usagers sont identitaires, personnelles, subjectives, il va sans dire que nul n’est à l’abri de partager des fausses nouvelles, qui ont alors le même poids que celles qui viennent de sources plus sûres. Lorsque la réalité commence à être ainsi teintée de fiction, les résultats peuvent être fâcheux. Président Trump, par exemple.

Le débat sur la meilleure solution à ce problème va bon train en ce moment. Certains veulent que Facebook s’adonne à un certain tri, une idée qui paraît rétrograde pour d’autres. D’une part, ce serait confier un pouvoir important à un seul joueur. D’autre part, comme le rappelle Robert Parry de l’Associated Press, les médias qui sont vus comme « fiables » ne le sont pas toujours; même le Post et le Times ont commis des bavures importantes dans le passé. Il souligne, avec raison, que les sites hyperpartisans et les rédacteurs satiriques sont loin d’avoir le monopole de la fausse nouvelle. « À une ère où tous les côtés utilisent la propagande, quand exactement la conformité à une “vérité” populaire devient-elle une forme de censure du scepticisme raisonnable? », s’interroge-t-il.

D’autres aimeraient que les journalistes et les élus participent à l’élaboration de l’algorithme de concert avec Facebook, ou au moins que l’organisation soit plus transparente en ce qui a trait aux facteurs qui sous-tendent les changements qui sont faits au code. Cela pourrait commencer par la création d’un département entièrement consacré à l’éthique, dont le travail serait régi non pas par une simple quête de « likes » et de clics, mais plutôt par des valeurs bien réfléchies.

Cependant, le scénario qui paraît le plus raisonnable, c’est celui que propose Annemarie Dooling du New York Times. Elle attire l’attention sur les filtreurs de pourriels qui sont maintenant la norme pour n’importe quel compte courriel. Le tri est effectué par un algorithme qui est capable de discerner le contenu indésirable. Cependant, le code n’étant pas parfait, chaque usager a dû apprendre à jeter un coup d’œil à son dossier « pourriels » de temps à autre et, ce faisant, a graduellement acquis des connaissances par rapport à ce qui est filtré et ce qui ne l’est pas. On parle donc d’un algorithme, avec une supervision humaine, laquelle est renforcée par un travail graduel d’apprentissage. Comme les pourriels, les publications provenant de sites mensongers, satiriques et hyperpartisans pourraient être clairement étiquetées, afin de limiter la portée du contenu créé dans une simple optique de quête de clics. Cela permettrait aussi aux millions d’utilisateurs de s’instruire sur la chose.

Ultimement, comme le soutient Dooling, il ne faut pas oublier qu’une part de la responsabilité revient aux usagers. Non seulement pourraient-ils aiguiser leurs comportements face aux nouvelles publiées sur Facebook – en vérifiant la véracité d’une information ou en lisant les articles avant de les partager, par exemple –, mais ils pourraient aussi être amenés à participer au processus. Il serait notamment intéressant de les amener à signaler les débordements; une option apparemment existante, mais méconnue.

Alors avec la nouvelle année qui approche, s’il y a bien une résolution à prendre, c’est de faire sa part pour contrer le phénomène grandissant de la désinformation. Peut-être les géants du web emboîteront-ils alors le pas.

Mise à jour : Facebook a annoncé une série de mesures pour contrer les efforts « des pires » parmi les faussaires. L’avenir s’annonce mouvementé.

Articles Recommandés
Agence RinaldiVotre site web est-il à jour?