#2 La rentrée : des livrables en cours de co-création
Sur quelles bases et comment la vision française prend-t-elle forme ?
Bienvenue sur la lettre d'information relative au Sommet pour l’action sur l’IA, une brève lettre d'information bi-mensuelle de l'Institut “Future of Life” (FLI) par Imane Bello qui vous fournit des informations actualisées et des analyses sur la préparation du Sommet pour l’action sur l’IA et son contexte.
Points clés :
Pour participer :
Une consultation d’experts est ouverte jusqu’au 15 novembre sur le site du Sommet.
Afin de présenter un projet pendant le Sommet, il est possible de répondre à l’appel à projets ouvert jusqu'au 7 octobre 2024 et géré par le Forum de Paris sur la Paix.
Le contexte politique : Michel Barnier (LR) a été nommé Premier ministre le 5 septembre. Clara Chappaz est nommée Secrétaire d'Etat chargée de l'Intelligence artificielle et du Numérique.
L’analyse : La nouvelle forme de gouvernance mondiale de l’IA proposée par la France nécessite un travail de convergence internationale conséquent (pour rappel, voir notre édition n°1). Ce travail semble reposer sur deux idées : (a) se fonder sur la science existante et (b) trouver des consensus.
Les questions : Qu’est-ce qu’un consensus ? Quelles sont les limites structurelles des choix politiques fondées sur la science existante ?
Le mot : Transparence.
La date : 25 septembre au matin à Paris : petit-déjeuner et discussion avec le Dr Charlotte Stix, Responsable de la gouvernance de l'IA chez Apollo Research - organisation d'évaluation de modèles axée sur les capacités dangereuses des modèles d'IA d'avant-garde. (RSVP ici).
Processus de préparation
Lors du webinaire du 4 septembre, les envoyés spéciaux et thématiques ont présenté les cinq axes de travail du Sommet. Beaucoup de questions et quelques indices.
L’IA au service de l’intérêt public
Comment créer une infrastructure publique à même de définir et créer, lorsqu’ils sont utiles, les modèles d’IA répondant aux besoins des usagers ?
L’avenir du travail
Comment fournir une plateforme de dialogue sur la manière dont les systèmes d’IA peuvent améliorer la productivité et le bien-être ?
Indice : Mesurer les impacts sur le marché du travail et l'éducation et de favoriser le renforcement des capacités des acteurs concernés.
L’innovation et la culture
Comment soutenir et construire des écosystèmes d'innovation travaillant avec les industries culturelles et artistiques ?
Indice : Mettre en avant des solutions permettant la juste rétribution d’artistes dont les données ont été utilisées pour la création d’un jeu d’entraînement.
L’IA de confiance
Comment promouvoir l’adoption de modèles de confiance ?
Indice : Partager des solutions techniques relatives à la manipulation de l’information, comme ceux utiles à la détection de contenus générés via des systèmes d’IA.
La gouvernance mondiale de l’IA
Comment favoriser l’émergence d’une vision, ou a minima, d’une prise de recul sur l’ensemble des initiatives déjà existantes pour mieux identifier les prochaines étapes utiles à une gouvernance mondiale efficace de l’IA ?
Indice : Dessiner (1) tout l’existant et (2) identifier les sujets qui gagneraient à être mis en avant.
Comment participer ?
Deux façons de participer sont mises en avant par l’équipe du Sommet :
contribuer, jusqu’à mi-novembre, à la contribution pour experts ici ;
et répondre, jusqu’au 7 octobre, à l’appel à projets géré par le Forum de Paris sur la Paix afin de présenter un projet pendant le Sommet.
Contexte politique
Depuis la dissolution inattendue de l’Assemblée nationale en juin dernier et la démission subséquente du gouvernement Attal, la France restait en attente de la nomination d’un Premier ministre et de la construction d’un nouveau gouvernement.
C’est désormais chose faite : l’Elysée a annoncé le 5 septembre via communiqué la nomination au poste de Premier ministre de Michel Barnier qui a constitué un gouvernement de 39 personnalités.
Michel Barnier (LR) était déjà Ministre sous les présidences Chirac et Sarkozy, et est également connu pour son ancien rôle de Commissaire européen et négociateur en chef du Brexit.
Sa priorité était de construire un gouvernement qui pourrait résister à la motion de censure.
Toutefois, la durée de son gouvernement est incertaine. Le RN a déjà indiqué que le gouvernement n'a "pas d'avenir" et François Hollande a indiqué qu'il y "aura surement à censurer le Gouvernement". A l'ouverture de la session parlementaire (1er octobre), la censure pourrait donc être proposée.
En attendant cette prochaine session parlementaire, et s’agissant des sujets numériques afférents au Sommet, on note :
la nomination de Clara Chappaz qui est nommée Secrétaire d'Etat chargée de l'Intelligence artificielle et du Numérique. Elle a dirigé l'entreprise Vestiaire Collective, puis La French Tech : elle est ainsi très connectée avec l’écosystème numérique français ;
le départ du numérique de Bercy pour être rattaché au Ministre de l'Enseignement supérieur et de la Recherche. Il faudra attendre les décrets d'attribution pour bien comprendre comment le numérique et l’économie seront traités au-delà des enjeux formation, recherche, innovation d’autant qu’au niveau de l’administration la direction qui gère le numérique reste la Direction générale des Entreprises (DGE) elle-même rattachée à Bercy ;
Une révision des relations entre Matignon et l'Élysée, avec la fin des conseillers partagés qui avaient été instaurés sous Emmanuel Macron pour fluidifier le travail exécutif. Cette décision préfigure une certaine indépendance accordée à Matignon, bien qu’un travail rapproché entre l'Élysée et Matignon reste nécessaire pour la gestion efficace des affaires publiques (y compris les questions relatives à l’IA).
L’organisation du Sommet ne devrait (pour l’instant) donc pas être profondément impactée par le contexte politique. Toutefois, une certaine articulation devra être trouvée entre l’Elysée, le nouveau gouvernement et les ministres clés pour le Sommet, à savoir les Ministres de l’Economie, du Numérique, des Affaires Etrangères.
Analyses
Vision française du Sommet : “un espace de convergence internationale”
Dans l’édition n°1 de cette info-lettre, j’écrivais que la vision française du Sommet pour l’action sur l’IA était : “contribuer à un espace de convergence internationale” en promouvant “une vision reconnaissant les risques, mais aussi soulignant les bénéfices” des systèmes d’IA.
Une convergence internationale nécessite de faire porter la voix du monde entier, sur des sujets touchant l’ensemble de la planète. En ce sens, la création des cinq axes de travail se comprend parfaitement.
Ainsi, Anne Bouverot, envoyée spéciale nommée par Emmanuel Macron, indiquait clairement : “nous devons être en mesure de dire à tous les habitants des pays d'Afrique, d'Amérique latine, d'Asie du Sud-Est et de certains pays d'Europe qui ne disposent pas d'écosystèmes d'innovation de ce niveau qu'ils peuvent participer et que nous les aiderons à le faire en facilitant l'accès au calcul, l'accès aux données, […] une formation sur la manière dont cela fonctionne et sur [ce qu’ils veulent] faire dans [leurs] pays.”
Une fois les questions intéressant l’ensemble des pays posées (c’est fait, a minima via les axes de travail) et leurs attentes éclaircies (c’est en cours, plus d’information et d’analyses à ce sujet ultérieurement), il faut aussi s’interroger sur la méthodologie permettant de prendre les décisions quant aux livrables du Sommet.
La méthodologie proposée est de suivre “le consensus scientifique”. Cela peut être problématique à deux égards.
Sur les preuves scientifiques et les limitations structurelles du monde de la recherche
Evidemment, se fonder sur les preuves scientifiques existantes est une méthodologie importante de choix politique.
Evidemment.
Se fonder exclusivement sur des preuves scientifiques existantes peut toutefois s’avérer problématique.
En effet, la recherche scientifique a les limitations des structures dont elle est issue :
Les incitations académiques favorisent des recherches orientées vers des résultats immédiats ou une rentabilité commerciale, ce qui peut restreindre l'exploration de domaines moins rentables ou plus spéculatifs mais potentiellement révolutionnaires ;
La pression pour publier rapidement (en anglais, l’adage “publish or perish”) conduit à privilégier des avancées incrémentales plutôt que des projets à fort potentiel ;
La dépendance au financement privé et les collaborations avec l'industrie influencent fortement les orientations de la recherche, risquant d'introduire des biais qui ne sont pas représentatifs de l'ensemble des besoins sociaux.
En limitant les décisions politiques à ce qui est déjà prouvé par la recherche, on risque donc d'ignorer des domaines potentiels d'innovation (scientifique ou politique) et de ne pas anticiper les défis futurs liés à l'intelligence artificielle, qui nécessiteraient pourtant une action présente - au-delà d’une posture d’attente.
De plus, une telle approche pourrait marginaliser les voix et les besoins des communautés moins représentées dans les écosystèmes de recherche mondiaux, empêchant ainsi une véritable convergence internationale et une adoption inclusive de l'IA qui tienne compte de divers contextes sociétaux et économiques.
Si les acteurs du Sommet font le choix de prendre en compte ces limitations, deux questions peuvent se poser :
Que fait-on vis-à-vis de ce que l’on sait ?
Que fait-on vis-à-vis de ce que l’on ne sait pas ? (à part attendre de savoir)
Une approche équilibrée, combinant rigueur scientifique et recherche d’innovation politique vis-à-vis de l’incertitude, semble nécessaire pour une gouvernance de l'IA qui anticipe les défis émergents dans un domaine en constante évolution.
A ce sujet, la recherche (sur l’innovation politique en cas d’incertitude scientifique) tend à mettre en avant l’application du principe de précaution - dont la France, via sa gestion des risques en droit environnemental par exemple, a déjà la maîtrise.
En effet, depuis la loi n° 95-101 du 2 février 1995 sur le renforcement de la protection de l'environnement, l'absence de certitudes du fait du manque de connaissances scientifiques et techniques à un moment donné doit amener à une prise de mesures de gestion de risques adaptés en ce qui concerne les potentiels dommages à l'environnement et sur la santé.
Notons d’ailleurs que la loi n° 95-101 du 2 février 1995 est dite “loi Barnier” en référence à Michel Barnier - ancien ministre de l’Environnement et désormais Premier Ministre - qui avait porté et défendu ce texte législatif.
Reste donc à déterminer si les limitations de la recherche seront prises en compte par les acteurs du Sommet, et si tel était le cas, l’innovation politique qui pourrait être proposée.
Sur les consensus
La seconde approche méthodologique proposée pour créer les livrables du Sommet est la recherche de consensus.
Le terme consensus dispose de trois définitions différentes :
un accord entre plusieurs personnes ;
une interdépendance vitale ;
le sentiment d’une forte majorité.
Dans le cadre de la préparation du Sommet, il semble que l’approche soit à la création de divers sous-groupes permettant de favoriser (1) la participation de toutes les parties prenantes sur certains sujets et (2) une discussion ouverte entre certaines parties prenantes triées sur le volet.
Impossible en l’état de dire de quel “consensus” il pourrait être question.
En tout état de cause, la recherche de consensus a les mêmes limitations structurelles que la recherche de “preuves scientifiques.”
Un appel au consensus retarde la réponse politique. Alors que le droit de veto ralentit clairement les institutions internationales dans des situations critiques géopolitiques, pourquoi choisir d’en créer un ad hoc ?
Le mot de la fin
Le mot de la fin pour cette deuxième édition : transparence.
L’exercice de partage d’informations, notamment via la construction d’un site dédié ou l’organisation d’un webinaire avec la société civile par l’équipe du Sommet est tant inédit que louable.
Réservez la date :
Le 25 septembre au matin à Paris : petit-déjeuner et discussion avec le Dr Charlotte Stix, Responsable de la gouvernance de l'IA chez Apollo Research - organisation d'évaluation de modèles axée sur les capacités dangereuses des modèles d'IA d'avant-garde. Les places étant limitées, merci de confirmer votre présence en RSVP ici avant le 23 septembre.
Plus récemment, Charlotte a créé et dirigé la fonction de politique publique pour l'Europe chez OpenAI. Auparavant, elle était coordinatrice du groupe d'experts de haut niveau sur l'intelligence artificielle de la Commission européenne (AI HLEG).
A lire :
L’intelligence artificielle ou la course à la puissance, IFRI, politique étrangère, vol. 89, n°3, automne 2024
Is Xi Jinping an AI doomer?, The Economist, 2024
A relire ou regarder :
Les Physiciens, Friedrich Dürrenmatt*.
*Les Physiciens (Die Physiker en allemand) est une tragicomédie écrite en 1961 par Friedrich Dürenmatt. Entre autres récits, trois physiciens se font passer pour fous afin d’empêcher les êtres humains de se détruire entre eux avec le résultat de leurs recherches scientifiques. La seule personne réellement folle, la médecin-chef, a copié leurs manuscrits afin de prendre le contrôle du monde.
La pièce interroge tant la responsabilité des savants quant à l’utilisation de leurs découvertes que le défaut d’infrastructures publiques leur permettant de faire des choix différents.
Je crois qu’il y a résonance avec les demandes multiples de protection des développeurs des systèmes d’IA avancés qui en disent long sur :
le défaut d’infrastructures publiques les protégeant ;
le défaut de connaissance du public de ces alertes non reçues ;
Bonjour. Merci de m’avoir lue ! N'hésitez pas à me faire part de vos commentaires, désaccords constructifs ou de votre souhait de lire une analyse particulière à l'avenir.
#2 Back to school: Summit deliverables - co-creation in progress
Welcome to the AI Action Summit Newsletter, a brief biweekly newsletter by Imane Bello from the Future of Life Institute providing you with up-to-date developments and analyses of the preparation of the AI Action Summit and its context.
On what basis and how is the French vision taking shape?
Key points:
How to Participate:
An expert consultation is open until November 15 on the Summit's website.
To present a project during the Summit, you can respond to the call for projects open until October 7, 2024, managed by the Paris Peace Forum.
Political Context: Michel Barnier (LR, right-wing party) was appointed Prime Minister on September 5th. Clara Chappaz was appointed Secretary of State for Artificial Intelligence and the Digital Economy.
Analysis: The new vision for global AI governance proposed by France requires significant international convergence work (see Issue No. 1). This work seems to be based on two methods: (a) relying on existing science and (b) finding consensus.
Questions: What is a consensus? What are the structural limitations of policy choices based on existing science?
The Word: Transparency.
The Date: On the morning of September 25 in Paris: breakfast and discussion with Dr. Charlotte Stix, Head of AI Governance at Apollo Research (RSVP).
Preparation process
During the webinar on September 4, the special and thematic envoys presented the five tracks of the Summit. Many questions and a few hints.
AI Serving the Public Interest
How can we create a public infrastructure capable of defining and creating AI models that meet users' needs, when they are useful?
The Future of Work
How can we provide a platform for dialogue on how AI systems can improve productivity and well-being?
Hint: Measure the impact on the labor market and education, and encourage capacity-building for the players involved.
Innovation and Culture
How can we support and build innovation ecosystems working with cultural and artistic industries?
Hint: Highlight solutions enabling the fair remuneration of artists whose data has been used to create a training game.
Trustworthy AI
How can we promote the adoption of trusted models?
Hint: Share technical solutions relating to information manipulation, such as those useful for detecting content generated via AI systems.
Global AI Governance
How can we foster the emergence of a vision, or at the very least, the ability to step back from all existing initiatives to better identify the next steps needed for effective global governance of AI?
Hint: Draw a picture of (1) everything that already exists and (2) identify the topics that would benefit from being brought to the fore.
How to Participate?
Two ways to participate are highlighted by the Summit team:
Contribute to the expert consultation until mid-November here;
Respond to the call for projects open until October 7, managed by the Paris Peace Forum, to present a project during the Summit.
Political context
Since the unexpected dissolution of the National Assembly last June and the subsequent resignation of the Attal government, France was awaiting the appointment of a Prime Minister.
This is now done: the Élysée announced on September 5th the appointment of Michel Barnier as Prime Minister, who has formed a government of 39 personalities.
Michel Barnier (“LR”, right wing), former Minister under Presidents Chirac and Sarkozy, is known for his former role as European Commissioner and chief Brexit negotiator.
His priority was to build a government that could withstand the motion of censure.
However, the duration of his government is uncertain. The RN has already stated that the government has “no future”, and François Hollande has indicated that “the government will surely have to be censured”. At the opening of the parliamentary session (October 1), censure could therefore be proposed.
Pending the next parliamentary session, and in terms of digital issues relating to the Summit, we note :
The appointment of Clara Chappaz as Secretary of State for Artificial Intelligence and the Digital Economy. She headed the company Vestiaire Collective, then “La French Tech”: she is therefore well connected with the French digital ecosystem;
The departure of the digital department from Bercy to be attached to the Minister of Higher Education and Research. We'll have to wait for the attribution decrees to fully understand how digital and the economy will be dealt with beyond the issues of training, research and innovation, especially as at the administrative level, the department that manages digital issues remains the “Direction Générale des Entreprises” (DGE), itself attached to Bercy;
A revision of relations between Matignon and the Élysée, with the end of shared advisors that had been established under Emmanuel Macron to streamline executive work. This decision prefigures a certain independence granted to Matignon, although close work between Élysée and Matignon remains necessary for the effective management of public affairs (including AI-related issues).
The organization of the Summit should therefore not be profoundly impacted by the political context. However, some coordination will need to be found between the Élysée, the new government, and the key ministers for the Summit, namely the Ministers of Economy, Digital Affairs, and Foreign Affairs.
Analyses
French Vision of the Summit: "A Space for International Convergence"
In Issue No. 1 of this newsletter, I wrote that the French vision of the Summit for AI Action was to "contribute to a space of international convergence" by promoting "a vision that recognizes risks but also highlights the benefits" of AI systems.
International convergence requires bringing the voice of the entire world on subjects affecting the whole planet. In this sense, the creation of the five tracks is perfectly understandable.
Thus, Anne Bouverot, special envoy appointed by Emmanuel Macron, stated clearly: "We must be able to tell all the inhabitants of African countries, Latin America, Southeast Asia, and some European countries that do not have innovation ecosystems of this level that they can participate and that we will help them do so by facilitating access to computing, access to data, [...] training on how it works and on [what they want] to do in [their] countries."
Once the questions that matter for most countries are posed (this is done, at least via the five tracks) and their expectations clarified (this is ongoing, more information and analyses on this subject later), we must also question the methodology for making decisions regarding the deliverables of the Summit.
The proposed methodology is to follow the “scientific consensus”. This can be problematic in two respects.
On Scientific Evidence and the Structural Limitations of the Research World
Obviously, relying on existing scientific evidence is an important methodology for political choice.
Obviously.
However, relying exclusively on existing scientific evidence can prove problematic.
Indeed, scientific research has the limitations of the structures from which it originates:
Academic incentives often favor research oriented toward immediate results or commercial profitability, which can restrict the exploration of less profitable or more speculative domains but potentially revolutionary;
The pressure to publish quickly ("publish or perish") leads to favoring incremental advances rather than high-potential projects;
Dependence on private funding and collaborations with industry strongly influence research orientations, potentially introducing biases that are not representative of all societal needs.
By limiting political decisions to what is already proven by research, we risk ignoring potential areas of innovation (scientific or political) and not anticipating future challenges related to artificial intelligence, which would nevertheless require present action—beyond a posture of waiting.
Moreover, such an approach could marginalize the voices and needs of communities less represented in global research ecosystems, thus preventing genuine international convergence and inclusive adoption of AI that takes into account various societal and economic contexts.
If the Summit actors choose to take these limitations into account, two questions may arise:
What do we do with what we know?
What do we do with what we don't know? (apart from waiting to find out)
A balanced approach, combining scientific rigor and the search for political innovation in the face of uncertainty, seems necessary for AI governance that anticipates emerging challenges in a constantly evolving field.
In this regard, research (on political innovation in case of scientific uncertainty) tends to highlight the application of the precautionary principle—which France, for example through its risk management in environmental law already masters.
Indeed, since Law No. 95-101 of February 2, 1995, on the strengthening of environmental protection, the absence of certainty due to the lack of scientific and technical knowledge at a given time must lead to taking appropriate risk management measures concerning potential damage to the environment and health.
Notably, Law No. 95-101 of February 2, 1995, is called the "Barnier Law" in reference to Michel Barnier—former Minister of the Environment and now Prime Minister—who had promoted and defended this legislative text.
It remains to be determined whether the limitations of research will be taken into account by the actors of the Summit and, if so, what political innovation could be proposed.
On Consensus
The second methodological approach proposed for creating Summit deliverables is consensus-building.
The term consensus has three different definitions:
an agreement between several people ;
a vital interdependence ;
the feeling of a strong majority.
In the preparation of the Summit, it seems that the approach taken is to create various sub-groups to promote (1) the participation of all stakeholders on certain subjects and (2) an open discussion between certain handpicked stakeholders. Impossible at this stage to say what kind of "consensus" might be created.
In any case, the search for consensus has the same structural limitation as the search for “scientific proof.”
A call for consensus delays political response. While the right of veto clearly slows down international institutions in critical geopolitical situations, why choose to create one?
The final word
The final word for this second edition: transparency.
The exercise of sharing information, notably through the construction of a dedicated website or the organization of a webinar for civil society organizations by the Summit team, is both unprecedented and commendable.
Save the Date: Sept. 25th
On the morning of September 25 in Paris: breakfast and discussion with Dr. Charlotte Stix, Head of AI Governance at Apollo Research—an organization evaluating models focused on the dangerous capabilities of cutting-edge AI models. As places are limited, please confirm your attendance by RSVPing here before September 23.
More recently, Charlotte created and led the public policy function for Europe at OpenAI. Previously, she was the coordinator of the High-Level Expert Group on Artificial Intelligence of the European Commission (AI HLEG).
To read:
Artificial Intelligence or the Race for Power, IFRI, Foreign Policy, vol. 89, no. 3, Autumn 2024
Is Xi Jinping an AI doomer?, The Economist, 2024
To read again:
The Physicists, Friedrich Dürrenmatt*.
The Physicists (Die Physiker in German) is a tragicomedy written in 1961 by Friedrich Dürrenmatt. Among other stories, three physicists pretend to be insane to prevent humans from destroying each other with the results of their scientific research. The only truly insane person, the head doctor, has copied their manuscripts to take control of the world.
The play questions both the responsibility of scientists regarding the use of their discoveries and the lack of public infrastructures allowing them to make different choices.
I believe there is resonance with the multiple requests for protection from developers of advanced AI systems, which speak volumes about:
The lack of public infrastructures protecting them;
The public's lack of awareness of these unheeded warnings;
Hi! Thank you for reading! Feel free to share your comments, constructive disagreements, or your desire to read a particular analysis in the future.