Facebook, Twitter, pour en finir avec l’hypocrisie edit
La décision de Facebook et Twitter de censurer Donald Trump, après la tentative d’insurrection du 6 janvier, a définitivement fait voler en éclat la fiction sur laquelle ces plateformes ont bâti leur prospérité. Dès leur naissance, elles ont affirmé avec force qu’elles n’étaient que des outils techniques de partage de contenus et qu’elles ne pouvaient être tenues pour responsables des textes ou des images qu’elles mettaient à la disposition de leurs utilisateurs. La raison en était simple : il n’existe aucun modèle économique permettant à un média d’éditer – c’est-à-dire de modérer, choisir, voire réécrire – autant de contenus. En revanche, si l’on se dispense d’éditer, c’est la fortune assurée, puisque les recettes de la publicité et de la collecte et la vente de données personnelles dépassent largement les coûts de gestion de la plateforme et des algorithmes de recommandation. Twitter et Facebook peuvent-ils encore dire, après avoir censuré le Président des Etats-Unis, qu’ils n’ont pas de responsabilité éditoriale sur les contenus qu’ils éditent ? Poser la question, c’est y répondre.
Au départ pourtant, l’argument semblait solide. Nous avons changé de monde, les réseaux sociaux ne sont pas des médias qui publient des contenus en direction d’un public selon le modèle émetteur-récepteur, ce sont des outils qui permettent une conversation entre plusieurs personnes où chacune est tour à tour émettrice et réceptrice, selon un principe égalitaire. Cette fable n’a pas tenu longtemps face à la dure réalité des hiérarchies sociales. Ce n’est pas la technologie qui assigne à un individu une position d’émetteur ou de récepteur, c’est la réputation et la capacité à capter l’attention. Les 88 millions d’abonnés au compte Twitter @realDonaldTrump sont là pour en témoigner. On retrouve donc sur les plateformes le principe « few to many », un petit nombre d’émetteurs qui s’adressent à un grand nombre de récepteurs, principe qui caractérise un média et qui justifie les lois et règlements qui encadrent la responsabilité éditoriale. Pourtant les gouvernements des grandes démocraties ont pris cette fable pour argent comptant et ont accepté de dispenser les réseaux sociaux de toute responsabilité et de toute régulation sur les contenus qu’ils publient, guidés par un subtil mélange d’ignorance, d’attirance et d’illusion.
L’ignorance d’abord. Dans nombre de pays, et c’est particulièrement vrai pour la France, l’illettrisme numérique des classes dirigeantes, notamment des classes politiques est abyssal. Par paresse intellectuelle, elles ont négligé de se former pour maîtriser cette nouvelle technologie cognitive. Quand l’écriture a émergé dans les sociétés orales, les rois et les princes ont rapidement compris qu’il s’agissait aussi d’un instrument de pouvoir et ont appris à écrire. Au lieu de faire de même, nos dirigeants ont considéré le numérique comme une commodité et non comme un savoir stratégique. Ils sont restés à distance et se sont parfois même vantés de n’y rien comprendre. Ils sont en train d’en payer le prix. Pour établir de nouvelles règles du jeu, le régulateur est toujours en retard sur l’innovateur, mais ce retard est en général léger. Dans le numérique, il se chiffre en dizaine d’années, si l’on songe que la création du protocole TCP/IP date de 1983 par exemple, et l’on peut craindre que les géants du numérique soient devenus « too big to regulate » (trop gros pour être régulés) un peu comme les grandes banques étaient « too big to fail » (trop grosses pour faire faillite) lors de la crise de 2008.
L’attirance ensuite. Ce que beaucoup de responsables politiques ont vu dans le web et les réseaux sociaux, et qui les a vraiment intéressés, c’est la possibilité de contourner et d’affaiblir les médias traditionnels. Produire ses propres contenus, contrôler son image, filmer et diffuser ses propres événements, s’affranchir des questions des journalistes, communiquer directement avec ses soutiens, piloter l’agenda des médias en postant des messages sur les réseaux sociaux, Trump l’a fait avec brutalité, mais avant lui, Obama avait ouvert la voie avec subtilité et dans l’enthousiasme général. Les bénéfices à court terme de cette transformation du leader politique en marque et en media ont longtemps dissimulé les effets dévastateurs qu’elle pouvait avoir sur la qualité et l’intégrité du débat politique. Les médias indépendants jouent un rôle essentiel non seulement dans la définition de l’agenda politique d’une démocratie mais également dans la construction d’un espace public qui encourage la confrontation des opinions et propose des informations crédibles, accessibles à l’ensemble des citoyens. Leur affaiblissement a ouvert la voie à une atomisation de l’espace public qui fragilise la démocratie.
L’illusion enfin. Au commencement, beaucoup ont cru que les réseaux sociaux, les médias conversationnels étaient des instruments d’émancipation, voire de libération. Le rôle qu’ils ont joué dans les soulèvements du Printemps Arabe ou la révolte contre les gouvernements autoritaires en Ukraine ou en Ouzbékistan suscitait des analyses pleines d’optimisme[1] qui vantaient le pouvoir qu’ils offraient aux citoyens de s’organiser, de se retrouver et de combattre l’oppression. Dans les pays démocratiques, on fit la relation entre ces outils et les nouvelles formes de contestation qui émergeaient : Occupy Wall Street aux Etats-Unis, Los Indignados en Espagne, Nuit Debout en France. La capacité des réseaux sociaux à revivifier la démocratie et à générer de nouvelles formes d’engagement politique semblait une évidence. Puis vinrent l’élection de Donald Trump, le referendum sur le Brexit et le rôle qu’a joué Cambridge Analytica dans ces deux scrutins, et les premières révélations sur les stratégies et les intrusions russes. Parce qu’on était fascinés par le fait que certains usages des médias conversationnels pouvaient affaiblir voire faire tomber des dictatures, on a négligé que d’autres usages pouvaient affaiblir, voire faire tomber des démocraties. Parce qu’on s’était habitué au consensus existant dans les médias sur la définition des faits, de l’actualité et de l’agenda, on avait oublié qu’un fait journalistique était une construction cognitive. Et comme toute construction cognitive, celle-ci pouvait être remise en cause par une autre construction cognitive, comme un « fait alternatif » ou une « fake news ». Et l’on s’est mis stupidement à accuser les réseaux sociaux, sans interroger l’indigence des politiques publiques.
On peut difficilement reprocher leur inertie à Google, Facebook, Twitter, Instagram ou YouTube, ce sont des entreprises privées qui cherchent à maximiser leurs profits, ce ne sont pas des bienfaiteurs de l’humanité. La désinvolture avec laquelle elles ont traité les dérives de ces cinq dernières années s’explique facilement. Le coût qu’aurait représenté l’embauche de dizaines de milliers de salariés pour modérer les contenus était dissuasif. Et les outils automatiques de recherche des contenus violents ou injurieux, fondés sur l’intelligence artificielle, entrent directement en conflit avec leurs algorithmes de recommandation, programmés à partir du fait statistique que la haine et l’indignation sont des moteurs plus puissants que la bienveillance et le raisonnement pour capter l’attention des utilisateurs et générer des clics.
Une seule solution: la régulation!
Il est donc urgent de réguler/ Google, Facebook, Twitter et d’autres géants du numérique sont devenus de véritables institutions politiques privées, comme je l’évoquais déjà en 2006 dans La fin de la télévision[2]. Elles négocient avec les Etats, censurent, autorisent ou interdisent les expressions publiques, stockent et commercialisent des données personnelles, créent une « Cour Suprême », prévoient de battre monnaie. C’est pourquoi une approche purement économique, en termes de démantèlement ne suffit pas. Il faut certes examiner les positions dominantes et démanteler si cela est nécessaire, mais la fonction politique de ces plateformes, la façon dont elles désarticulent l’espace public et réorganisent la délibération, doit faire l’objet d’une régulation spécifique. Celle-ci devra éviter de nombreux pièges, sur lesquels ont achoppé tous les projets de régulation par le passé. Le premier de ces pièges est naturellement l’impossible définition de ce que sont la vérité et l’objectivité dans le domaine politique, a fortiori un quelconque corsetage automatique et algorithmique de la liberté d’expression. L’intelligence artificielle n’étant même pas encore capable de détecter efficacement l’ironie d’un message, il est inenvisageable qu’elle sache distinguer dans un futur proche les limites souvent subtiles entre humour et offense.
Le second piège est celui de l’échelle géographique. Une telle régulation ne saurait être imposée par un seul pays à des plateformes mondiales. Elle ne peut être élaborée qu’à l’échelle européenne, tant les divergences de conception de la liberté d’expression entre l’Europe et les Etats-Unis sont rédhibitoires.
Le troisième écueil serait de calquer la régulation de ces acteurs sur les mécanismes traditionnels de régulation des médias. Il faut partir de l’idée que ces plateformes ne sont pas des médias mais des méta-médias. Elles hébergent des médias qui s’appellent « comptes » sur Twitter, « profils » sur Facebook, ou « chaînes » sur YouTube. Mais elles ne font pas qu’héberger : elles modèrent, elles recommandent, elles mettent en valeur, elles connectent, elles agencent. Ce faisant, elles ne sont pas un simple outil technique d’hébergement, elles jouent un rôle éditorial qui doit être régulé selon des modalités très différentes de la régulation des médias. Ce ne sont pas les contenus qui doivent être contrôlés, mais les dispositifs de modération, de recommandation, de signalement, et d’intervention sur les contenus ou les comptes signalés.
Sur la modération, il faut des règles suffisamment flexibles pour que des projets comme Wikipédia puissent continuer à pratiquer la modération par des bénévoles sans courir de risques, et suffisamment dures pour définir des ratios entre la quantité de contenus à modérer et le nombre de modérateurs, non pas globalement mais à l’échelle de chaque pays. Il faut également prévoir un renforcement de la modération en période électorale. Des organismes indépendants devront auditer régulièrement les logiciels et les autres outils de modération automatisée et rendre compte publiquement de leur évaluation.
La question de la recommandation est sans doute la plus complexe. Les plateformes considèrent que leurs algorithmes sont des actifs stratégiques qui ne peuvent être communiqués. Il y a aussi une autre raison, moins avouable. Il se murmure que chez Google, même les ingénieurs les plus capés ne savent pas expliquer comment et pourquoi leurs algorithmes recommandent ceci plutôt que cela. Les outils ont été tellement modifiés, triturés, réassemblés, complexifiés depuis leur création, que plus personne n’est capable de les documenter correctement. La transparence et la fiabilité des algorithmes de recommandation sont cependant un enjeu crucial. Ils doivent être audités et faire l’objet d’une évaluation rendue publique. La Commission Européenne devrait engager le plus vite possible un dialogue à ce sujet avec les plateformes. A minima, elle pourrait exiger d’elles que les auteurs ayant été signalés de façon répétée par des utilisateurs voient leurs contenus exclus de toute recommandation, le temps que les signalements soient traités. La recommandation étant totalement discrétionnaire, cette mesure laisserait les contenus en instance de jugement accessibles à ceux qui les recherchent activement, mais les rendrait peu visibles par hasard algorithmique, limitant ainsi l’effet bulle de filtre.
Le dernier piège, et non le moindre, serait de croire que les régulateurs peuvent se contenter d’édicter des règles, et de les faire appliquer par les plateformes. Ils ont la responsabilité d’être, de façon fiable aux côtés des plateformes dans l’application et l’interprétation de la règle. Il faut comprendre que seule une coopération en temps réel entre plateformes, police et justice sera efficace. Les méta-médias sont des « communs numériques », pour que leur régulation fonctionne, celle-ci doit faire l’objet d’une gouvernance partagée. Quelle est la formation d’un étudiant dont le job à temps partiel est de modérer des contenus sur une plateforme ? Vers qui peut-il se tourner pour demander si tel propos d’un député ou d’un journaliste est litigieux ? Pourquoi ne semble-t-il pas y avoir d’interfaces entre les outils de la police et ceux des plateformes ? Les plateformes doivent pouvoir signaler en temps réel aux autorités un contenu clairement délictuel, ou au contraire solliciter en temps réel, par un mécanisme d’interconnexion des systèmes de traitement (API), l’avis d’un officier assermenté qui aura, lui, la légitimité de dire le droit. Les pouvoirs publics ne laissent-ils pas les plateformes faire le « sale boulot » à leur place ? On peut bien sûr estimer que les 7 500 modérateurs employés en 2018 par Facebook sont très insuffisants, mais c’est tout de même 250 fois plus que la trentaine de gendarmes et policiers dédié à Pharos, qui traite l’ensemble des contenus illicites sur internet. Or ce sont eux, appuyés lorsque nécessaire par un juge, qui devraient être le point de référence pour tout contenu de droit français.
Pour le signalement, la balle est clairement dans le camp des autorités policières et judiciaires des pays européens. La défaillance est du côté des pouvoirs publics. Pour s’en convaincre, il suffit de comparer la facilité avec laquelle on peut signaler un contenu illicite sur Twitter et le temps que prend un signalement similaire sur la plateforme du ministère de l’intérieur français. De plus, il y a fort à parier que l’interconnexion entre les deux se fait au mieux par mail, et plus probablement par fax.
La décision, prise souverainement par Twitter et Facebook, de censurer le Président des Etats-Unis a fait l’effet d’un électrochoc. Mais des dizaines de milliers de comptes avaient été supprimés avant celui-là, tout aussi souverainement. La seule solution efficace est d’organiser une supervision des signalements et une coopération dans les interventions sur les contenus et les comptes signalés, dans le respect de l’Etat de droit. Les gouvernements pourront d’autant plus exiger des plateformes qu’elles assument leurs responsabilités qu’ils auront fait leur part du travail, en faisant rentrer leurs polices, leurs systèmes et leurs procédures dans le 21e siècle.
Enfin, ce n’est certainement pas à Facebook d’instituer une « Cour Suprême » numérique, mais à l’Union Européenne. Une telle instance devra arbitrer tous les conflits et pourra être saisie par n’importe quel citoyen européen. Le temps presse. Les élections fédérales allemandes auront lieu en septembre 2021 et la présidentielle française en juin 2022. Beaucoup de gens mal intentionnés sont à l’affût de ces deux événements pour tenter de déstabiliser deux grandes démocraties européennes, et ils savent que Facebook et Twitter seront beaucoup moins attentifs et réactifs à ces élections européennes qu’ils ne l’ont été à la présidentielle américaine. Si l’Europe n’est pas au rendez-vous, nous en paierons tous le prix.
[1] Larry Diamond, Liberation Technology: Social Media and the Struggle for Democracy, Baltimore, Johns Hopkins University Press, 2012.
[2] Jean-Louis Missika, La Fin de la télévision, Le Seuil, La république des idées, Paris 2006.
Vous avez apprécié cet article ?
Soutenez Telos en faisant un don
(et bénéficiez d'une réduction d'impôts de 66%)