L’information au défi de l’IA edit

14 février 2025

L’intelligence artificielle va bouleverser la production et la circulation des nouvelles ce qui constitue un nouveau défi pour le secteur des médias, et plus largement pour les sociétés démocratiques. Ce qui rend complexe l’appréciation du rôle de l’IA, c’est que son impact porte à la fois sur la qualité de l’information et sur l’économie des médias.

La qualité de l’information est menacée, et ce de plusieurs façons. Tout d’abord, l’IA démultiplie la capacité à créer de fausses informations. Les récentes campagnes électorales menées en Europe et aux États-Unis ont montré que l’IA peut être un puissant instrument d’influence et de manipulation. Elle facilite la production de deep fakes, permettant de produire des images et des sons qui semblent authentiques alors qu’ils sont totalement faux. Les réseaux sociaux ont fortement contribué à cette diffusion en dépit de l’existence d’équipes de modérateurs chez Meta et YouTube. Depuis l’élection de Trump cette situation déjà peu satisfaisante s’est encore dégradée. Les propriétaires des principales plateformes et particulièrement Mark Zuckerberg, le patron de Meta (Facebook, Instagram et WhatsApp) ont décidé de s’aligner sur Elon Musk et X et de renoncer à toute forme de modération. De ce fait les usages les plus délictueux de l’IA sont désormais tolérés aux États-Unis sans qu’il soit possible de les corriger et les dérives constatées déjà sur les réseaux sociaux vont être fortement stimulées par cette capacité inédite jusqu’à présent de transformer la réalité.

Ensuite, on assiste à l’apparition de services d’information personnalisés (comme Zyte) qui visent plus particulièrement les entreprises en leur proposant grâce à l’IA des chaînes d’information adaptés à leurs besoins. Ces chaînes ne sont pas de simples agrégateurs d’informations déjà vérifiées (comme GoogleNews) : elles puisent à des sources plus vastes et notamment aux réseaux sociaux. Or cela pose de sérieux problèmes en matière de fiabilité, même quand ils s’agit simplement de compiler des données. Comme le souligne dans un récent article de Politico.eu un expert en traitement des conflits[1], « les modèles de collecte de données sur les conflits, automatisés et basés sur l'IA, s'alimentent de plus en plus de messages sociaux et (principalement, voire exclusivement) de médias anglophones. Il n'existe aucun contrôle de ces systèmes, simplement l'espoir que la vérité se dégage du bruit. Ce n'est pas le cas ». Les machines, explique-t-il, « ne peuvent distinguer un rapport d'une rumeur » ; elles sélectionnent les messages les plus nombreux sur les réseaux sociaux au risque de déformer la réalité que seuls des humains compétents peuvent cerner avec précision. On vérifie dans ce cas une carence de l’IA qui a déjà été maintes fois soulignée, le fait que la machine tient trop compte du volume de diffusion d’une information au détriment de la qualité de celle-ci qu’elle n’est pas capable d’apprécier.

Enfin, des lacunes d’origine politique cette fois, sont manifestes dans l’IA chinoise Deep Seek. Il ne s’agit pas de simples biais ou de ce que les experts nomment des hallucinations. Les tests opérés aux États-Unis ont montré qu’il était impossible d’obtenir une réponse sur les sujets sensibles de la politique chinoise, pas d’avis donc sur le parti communiste et son leader suprême.

Ces trois faiblesses structurelles se renforcent mutuellement, quand les services de collecte de l’information affectés par les faiblesses de l’IA se nourrissent à des sources infectées par des utilisateurs malveillants de l’IA.

L’Europe peut-elle espérer échapper à cette dégradation de l’information numérique ? Elle dispose d’un instrument relativement efficace, le Digital Service Act (DSA), qui permet de sanctionner financièrement les plateformes qui ne respectent pas les règles déontologiques édictées par ce texte qui a fait l’objet de longs débats au sein de l’Union. Mais le DSA n’est pas taillé pour répondre aux défis de l’IA (qui a fait l’objet d’un règlement à part, l’AI Act, aux enjeux très différents). En particulier, l’accélération du cycle de la désinformation permise par l’IA accroît un problème déjà connu : si les grandes plateformes ont un intérêt financier immédiat, vu les sanctions encourues, à obéir aux injonctions de la Commission européenne, le temps de latence entre le constat d’une grave déformation de l’information et les actions de corrections est un obstacle difficilement surmontable, qui limite les effets du DSA. Enfin, on ne peut pas garantir que la barrière du DSA résistera aux assauts de l’Amérique trumpienne. Dans ses récentes interventions, Mark Zuckerberg a violemment critiqué ce qu’il considère comme une politique de censure de l’Union européenne. On peut compter sur Elon Musk lui-même très engagé sur l’IA, pour renchérir sur ces positions en invoquant l’intérêt des géants du numérique à évoluer sans contraintes dans l’espace européen qui constitue un marché très fructueux pour eux avec ses 450 millions de consommateurs. Il y a là un des enjeux des négociations commerciales que l’UE devra mener avec les autorités américaines.

Un triple défi pour la presse

Les conséquences économiques pour les médias sont multiples. La première est une nouvelle disruption du système de concurrence, après les plateformes numériques dont l’essor a déjà bouleversé le secteur en mordant à la fois sur l’audience et sur les budgets des annonceurs.

Ensuite, dans un contexte de fragilisation économique du secteur et face à des charges d’exploitation qui restent considérables, la tentation existe dans de nombreuses publications ou sites d’information d’utiliser les outils de l’IA pour rédiger des articles sur des sujets n’appelant pas d’enquêtes particulières. Cela aboutirait à remplacer un certain nombre de journalistes par des systèmes automatiques dont la fiabilité n’est pas totalement garantie. Il pourrait en résulter une dégradation de la production de l’information échappant dans une large mesure aux vérifications indispensables. L’histoire n’est certes pas écrite, mais ce risque est réel. En tout état de cause, l’arrivée de l’IA reconfigure profondément le métier de journaliste[2].

Toutefois ce qui préoccupe le plus les grands médias occidentaux, ce sont les conditions d’exploitation de leurs contenus par les opérateurs de l’IA et particulièrement le plus avancé d’entre eux, Open AI. Pour apporter des réponses précises aux requêtes des usagers, les services d’IA doivent s’appuyer sur des millions de données couvrant tous les champs de la connaissance. De ce point de vue les contenus et les archives des grands quotidiens comme le New York Times ou Le Monde constituent une ressource particulièrement utile. Et qui présente l’avantage d’être constamment mise à jour.

Face à ce début de pillage, les réactions des dirigeants de médias ont été variées. Les plus lucides ont constaté qu’on assistait à la répétition de l’arrivée des plateformes numériques qui, au début du XXIe siècle ont exploité sans limites et sans véritable contrepartie financière les services d’information pour capter un maximum d’internautes et augmenter le temps passé sur les plateformes. Ils ont décidé de réagir en engageant des actions en justice notamment à l’encontre d’Open AI qui fait l’objet d’une plainte du New York Times devant un tribunal de New York, plainte à laquelle plusieurs groupes de presse comme Gannet envisagent de se rallier. Tout récemment, un jugement a été rendu en faveur de Thomson Reuters dans l’affaire qui l’opposait à Ross Intelligence – une décision qui fait date, dans un système jurisprudentiel comme celui des États-Unis[3].

D’autres, comme Associated Press, Springer, El Pais ou Le Monde ont préféré conclure des accords avec les opérateurs de l’IA. Ils ouvrent la totalité de leurs archives et de leur contenu en échange d’une rémunération financière globale dont le montant n’a pas été divulgué. Mais qui est semble-t-il relativement modeste compte tenu des dizaines de milliards de dollars investis par ces géants.

Ces accords ne règlent cependant qu’une partie du problème et beaucoup d’observateurs estiment que les publications qui ont signé se sont hâté trop vite. Deux risques subsistent en effet. D’une part, la question des droits voisins n’est pas réglée. Les auteurs de livres ou d’articles ont chargé les sociétés qui les représentent comme la SACEM ou la SACD de discuter ce point avec les entreprises d’IA qui sont évidemment très réticentes pour reconnaître ces droits. Dans les pays de droit anglo-saxon, les fournisseurs d’information se battent pour obtenir la reconnaissance du copyright. Tout récemment, Sam Altman le président d’Open Ai a eu droit à de vives protestations du gouvernement indien qui lui reproche l’exploitation gratuite des données de ce pays.

D’autre part, comme l’a d’ailleurs souligné la plainte du New York Times, des services comme Chat GPT peuvent parfaitement mettre en place des services d’information s’appuyant sur les données collectées en amont par les rédactions des journaux et donc quasiment gratuites. Pour pallier ce risque et, en attendant une future négociation, de nombreux titres, comme Ouest France ont décidé d’interdire à Chat GPT ou à Mistral l’accès à leurs données.

En définitive, l’Union européenne fait face à des choix difficiles qui devront être tranchés rapidement. Il s’agit de sauvegarder une information pluraliste face aux assauts d’Open AI et des grandes plateformes de Meta et Google qui sont encouragées par la présidence de Trump à rejeter toutes les contraintes européennes et s’apprêtent à exploiter massivement l’IA pour enrichir leurs contenus et accroitre leur emprise sur les internautes. Toutefois, il faut aussi aider les acteurs européens de l’IA à développer leurs projets pour éviter une fois de plus d’être marginalisés dans un secteur d’avenir. Des opérateurs comme le Français Mistral AI ont fait savoir qu’ils ne toléreraient qu’un minimum de contrôles. Jusqu’à présent Bruxelles hésite à prendre une position claire mais le temps presse.

[1] Clionadh Raleigh, « As conflict rates soar, misinformation is getting worse », Politico.eu, 27 janvier 2025.

[2] Pour une synthèse (déjà ancienne à l’échelle de l’IA !), voir Felix M. Simon, « Artificial Intelligence in the News: How AI Retools, Rationalizes, and Reshapes Journalism and the Public Arena », Columbia Journalism Review, 6 février 2024.

[3] Sur les implications juridiques de cet arrêt, voir Kate Knibbs, « Thomson Reuters Wins First Major AI Copyright Case in the US », Wired, 11 février 2025.