IA: politiques chinoises, américaines et européennes edit
Depuis 2016, un nombre croissant de gouvernements et d’entités publiques ont mis en place des plans de développement de l’intelligence artificielle (IA). En 2024, l’OCDE recensait plus de 1000 politiques publiques traitant d’IA, émanant de 69 pays. La Chine, les États-Unis, et l’UE ont choisi des voies différentes, qu’on peut faire contraster à travers les questions éthiques, légales et socio-économiques.
États-Unis: conserver le leadership
En octobre 2016, l’Administration Obama a publié un ensemble de trois rapports qui concluaient que l’IA allait devenir la force motrice des transformations de l’économie et de la sécurité nationale. En 2015, l’investissement public dans l’IA tournait déjà autour de 1,1 milliard de dollars, et il était prévu d’atteindre 1,2 milliard l’année suivante. Le plan établissait une batterie d’objectifs pour le financement fédéral de la recherche. Le but visé était de produire de nouvelles connaissances et technologies d’IA susceptibles d’apporter des bénéfices positifs à la société, tout en minimisant les conséquences négatives. Le gouvernement Trump ne donnera pas suite, proposant plutôt une réduction de 10% du montant affecté à ces recherches financées par la National Science Foundation.
Un rapport de la National Security Commission on Artificial Intelligence, publié début 2021, indiquait que les Etats-Unis étaient insuffisamment préparés pour entrer dans l’ère de l’IA et que des ressources substantielles devaient être affectées afin « de protéger la sécurité du pays, assurer sa prospérité et sauvegarder le futur de la démocratie »[1]. La commission, une entité indépendante instaurée en 2019, réunissait une forte proportion de dirigeants des industries technologiques. Le rapport s’alarmait de la concurrence, biaisée aux yeux des rapporteurs, de la Chine.
Le National Artificial Intelligence Initiative Act adopté fin 2020 n’offre qu’un cadre de coordination et de renforcement des activités de recherche, développement et formation des administrations et agences américaines. Il ne précise pas le budget. Il s’articule autour de six piliers : innovation, avancement de l’IA digne de confiance, éducation et formation, infrastructures, applications et coopération internationale. La loi institue diverses entités dont le National Artificial Intelligence Initiative Office, en charge de l’administration du programme.
En 2021 l’Administration Biden a lancé un groupe de travail, la National Artificial Intelligence Research Resource Task Force. L’année suivante a été déposé un projet de loi avec un fort accent sur les aspects sociaux. Il sera suivi, en 2023, par une autre initiative, destinée également à renforcer la dimension démocratique de l’écosystème de l’IA[2].
Chine: objectif 2030
L’IA est devenue une priorité en Chine avec l’adoption en 2017 du Next Generation Artificial Intelligence Development Plan, pour partie une réponse au plan américain. Il faisait suite au plan Internet Plus de 2015. Ce plan a d’emblée affiché des objectifs extrêmement ambitieux : la Chine entend dépasser tous les autres pays à l’horizon 2030, tant dans la recherche, les technologies et les applications. Elle vise à développer un secteur industriel à part entière estimé à 150 milliards de dollars[3]. Le plan considère l’IA comme la technologie de transformation à la base de la puissance économique et militaire.
Ce plan prévoyait trois étapes, comme le note Sophie-Charlotte Fischer[4] : « rattraper les États-Unis d’ici 2020, les dépasser en 2025 et devenir leader mondial en 2030 ». En 2018, un livre blanc publié par le Chinese Electronics Standards Institute traitait des implications éthiques et sociales. Des initiatives régionales et locales viennent compléter ce plan national[5]. Les autorités locales sont des relais importants pour l’expérimentation des politiques nationales. La même année 2017, a été ajouté un plan triennal axé sur des applications industrielles.
En 2019, le ministère de la Science et de la Technologie adoptera des lignes directrices. Le plan quinquennal 2021-2025 a réaffirmé le rôle de l’IA dans une économie numérique intelligente. La même année ont été adoptés un code d’éthique et une loi sur la sécurité des données.
UE: des actions ciblées au plan coordonné
L’Europe n’avait pas de stratégie unifiée avant 2018 ; toutefois, certains États membres avaient déjà mis en place des mesures dont la France avec un premier plan en 2017, « France IA ». Le Royaume-Uni avait proposé la même année sa stratégie de développement[6]. Ces initiatives ont d’ailleurs conduit la Commission à accélérer la mise en place d’un plan d’intervention coordonné. Le développement de l’IA en Europe est fort inégal : l’Allemagne, la France et le Royaume-Uni concentrent la moitié des acteurs[7] ce qui rend d’autant plus nécessaire une politique de convergence et de coordination.
Face aux démarches des États-membres, les initiatives vont s’intensifier en 2018. En avril 2018, la Commission et les États-membres, rejoints par la Norvège, signèrent un accord de coopération. Le même mois, la Commission révélait sa stratégie dans une première communication[8], suivie d’une autre communication destinée à tracer la voie d’une coordination accrue. Plus tard, cette même année, serait instauré un groupe de 52 experts : le High-Level Expert Group on Artificial Intelligence qui réunissait des représentants du monde académique, de la société civile et de l’industrie. Le groupe devait piloter les travaux de la European AI Alliance, une plateforme réunissant près de 4000 participants pour débattre des implications techniques et sociétales de l’IA. En janvier 2019, le projet AI4EU entendait faciliter l’adoption de l’IA par un large spectre d’industries. Un livre blanc, en 2020, réactualisait le plan de coordination et visait la création d’un « écosystème d’excellence et de confiance ». Le livre blanc fournissait une feuille de route pour la législation et évoquait une approche de la réglementation fondée sur le risque.
On s’éloignait dès lors des politiques ciblées de recherche et développement, pour entrer dans des politiques industrielles. Mais, en basculant de la seule recherche et développement dans la politique industrielle, les questions sociétales devenaient délicates à éviter. La communication notait les risques et bénéfices de l’IA. Elle indiquait que l’IA visée devait être centrée sur l’humain, digne de confiance, ancrée dans les valeurs européennes et les droits fondamentaux.
La proposition début 2021 d’un cadre législatif et réglementaire, l’Artificial Intelligence Act, marque un tournant réglementaire fort : « La proposition établit des règles harmonisées pour le développement, la mise sur le marché et l’utilisation de systèmes d’IA dans l’Union suivant une approche proportionnée fondée sur le risque »[9]. Les règles ont été voulues flexibles, mais le cadre vise à instaurer les normes mondiales les plus élevées. La législation proposée classe les applications d’IA selon le niveau de risque : minime, limité, élevé et inacceptable. En fonction du taux de risque, les applications devront se conformer à un taux croissant de transparence et d’obligations. La proposition sera adoptée en 2024.
Depuis janvier 2021, ces deux dimensions de l’action vis-à-vis de l’IA (stratégie et réglementation) s’intègre dans une politique industrielle « Industrie 5.0 ». Elle part de la reconnaissance du pouvoir de l’industrie de réaliser des buts sociétaux au-delà de sa seule contribution à l’emploi et la croissance. Cette politique entend permettre la transition vers une industrie européenne résiliente, centrée sur l’humain, et au développement durable.
La démarche actuelle de l’Europe est aussi un pari, à la suite du RGPD, d’arriver à imposer des normes mondiales, en prenant la tête de l’innovation réglementaire. Pari plus risqué que dans le cas du RGPD compte tenu de la dimension industrielle plus forte ; le RGPD n’intervenant que pour réglementer l’utilisation des services numériques sur le territoire européen. Dans ce contexte, le risque existe de voir l’Europe se transformer en « îlot éthique » en concurrence avec des régions dynamiques qui le seraient beaucoup moins. Mais d’une part, l’Asie du Sud-Est et le Japon ont aussi des positions intermédiaires et des prises de position aussi fortes sur le plan sociétal. D’autre part, cette politique s’appuie sur un nombre croissant de travaux y compris de propositions émanant de l’industrie (ainsi Microsoft pour la santé, PAI[10]) qui cherchent des compromis entre l’approche « business as usual » et ces considérations.
Enfin si les pays les plus avancés dans ce domaine (Allemagne, France et Royaume-Uni) disposent d’écosystème de qualité et de chercheurs de renoms, l’Europe souffre toujours d’une fuite des cerveaux et des modes de financements les plus appropriés pour transformer les réussites scientifiques en succès commerciaux.
Les géants numériques consacrent souvent des budgets de R&D supérieurs à ceux des pouvoirs publics. Pour les pouvoirs publics, le succès et l’importance des applications commerciales développées par ces natifs numériques sont venus en souligner le potentiel économique. Leur inégal développement au sein des divers secteurs industriels, comme la faiblesse de la demande dans certains secteurs, dessinaient dès lors un espace d’intervention pour les pouvoirs publics.
Par la même occasion, l’IA devenait l’un des éléments clés de politiques industrielles revisitées : industrie 4.0[11] ou 5.0, société 5.0[12]. Le curseur affiché (industrie v. société) varie, mais toutes ces politiques vont désormais intégrer une dimension sociétale sous une forme ou sous une autre, d’autant plus que l’IA suscite autant d’enthousiasmes que de peurs. Les « oiseaux de mauvais augure » comme les « accros » aux technologies partagent en fait une même croyance quant au caractère radical, positif ou négatif, des transformations induites. Espoirs et menaces pouvaient être infondés, mais il convenait donc d’y apporter des réponses. Les pouvoirs publics se devaient d’être en mesure d’identifier les défis, les barrières et les contraintes d’où l’intégration de ces dimensions dans ces plans. Les principes adoptés (transparence, sécurité, sureté, protection de la vie privée, éthique) visent un équilibre entre bénéfices attendus et risques encourus. Mais la mise en avant de ces principes « centrés sur l’humain » permet aussi de revenir sur le consensus négatif qui régnait jusqu’il y a peu chez les économistes à l’encontre des politiques industrielles, comme le note Ruchir Agarwal[13].
Vous avez apprécié cet article ?
Soutenez Telos en faisant un don
(et bénéficiez d'une réduction d'impôts de 66%)
[1] National Security Commission on Artificial Intelligence, Final Report, 2021.
[2] The National Artificial Intelligence Initiative Office, “Strengthening and Democratizing the U.S. Artificial Intelligence Innovation Ecosystem: An Implementation Plan for a National Artificial Intelligence Research Resource”, 2023.
[3] Guilhem Fabre, “China' Digital Transformation: Why is artificial Intelligence a priority for Chinese R&D”, Working Paper, 2018, p.15.
[4] Sophie-Charlotte Fischer, « Intelligence artificielle : les ambitions de la Chine », Politique de sécurité : analyses du CSS, n° 220, février 2018, p. 2.
[5] Claudia Feijoo, “The AI ecosystem in China”, in Massimo Craglia (ed.), Artificial Intelligence. A European perspective, 2018, pp.45-51.
[6] Dans les cas de ces deux pays, la stratégie venait se placer au sein de politiques publiques de numérisation et s’affichait, de plus en plus, comme une politique industrielle destinée à maintenir/ gagner une place importante dans le cadre d’une concurrence mondiale intensifiée.
[7] Hallward-Driemeier, M., Nayyar, G., Fengler, W., Aridi, A., Gill, I., Europe 4.0: Addressing the Digital Dilemma, World Bank, Washington, DC, 2020, p.11.
[8] On trouvera un tableau récapitulatif de l’ensemble des politiques européennes de 2016 à 2023 dans Simon, J.P., “Back to industrial policies with a human-centric flavor: the case of artificial intelligence”, in Scupola; A., Sundbo, J., Fugsland, L., Henten, A.H., (eds), Handbook of Services and Artificial Intelligence. Edward Elgar, London, 2024. Cf. pour les initiatives des différents États-membres : Jorge Ricart, R., Van Roy, V., Rossetti, F. and Tangi, L., AI Watch : National strategies on Artificial Intelligence: A European perspective. 2022 edition, Publications Office of the European Union, Luxembourg, 2022.
[9] European Commission, (2021), “Proposal for a Regulation laying down harmonised rules on artificial intelligence”, 2021, 206 final, p.1.
[10] Une association à participation multiple qui regroupe universitaires, chercheurs, ONGs, pouvoirs publics et industries produisant ou utilisant l’IA. “Partnership on Artificial Intelligence to Benefit People and Society”.
[11] Quatrième révolution industrielle pour la Corée du Sud.
[12] Livre blanc du Japon pour une société 5.0 « super-intelligente ».
[13] Ruchir Agarwal, “Is it time to strike a new balance between state intervention and market forces?”, Industrial Policy and the Growth Strategy Trilemma, FMI, Analytical Series, 2023.