#6 Last but not least: Petit guide du Sommet de l'Action sur l'IA à l'usage des décideurs politiques - A Policymaker's Guide to Navigating the AI Action Summit
Malgré la crise politique, le sommet suit son cours. Ce cap est-il le même que les avancées en IA ?Despite the political crisis, the Summit is on course. Is this course the same as recent AI advances?
See below for an English version of this newsletter.
Points clés :
Le contexte politique : Après un accord en Commission mixte paritaire le 31 janvier dernier, le Premier ministre François Bayrou a activé ce 3 février l'article 49 alinéa 3 de la Constitution pour faire adopter les Budgets de l'Etat et de la Sécurité Sociale 2025 sans vote parlementaire. Cette décision expose le gouvernement à deux motions de censure déposées par La France Insoumise, soutenue par les communistes et les écologistes, qui sera débattue mercredi. Le Parti socialiste a annoncé qu'il ne soutiendrait pas cette motion, ce qui laisse le Rassemblement National en unique décideur de l'avenir du gouvernement.(Cela vous rappelle quelque chose ? Merci d’avoir lu les éditions #2, #3, #4 et #5 de cette lettre d’information !)
L’analyse : Le Sommet de l'action sur l'IA à Paris marque un moment historique, réunissant une coalition sans précédent de 100 chefs d'État et 700 dirigeants mondiaux pour construire ensemble une vision commune de l'IA. Cette mobilisation intervient à un moment opportun, alors que les capacités technologiques s'accélèrent. Bien que le sommet propose des initiatives prometteuses, notamment une Fondation pour les biens communs numériques dotée de 2,5 milliards d'euros et l'inclusion du nouveau centre de sécurité français (“INESIA”) dans le réseau des instituts de sûreté et de sécurité, de nombreuses questions restent en suspens. Cet article fournit des informations et des stratégies essentielles permettant aux décideurs politiques de s'engager dans les thèmes clés du Sommet et de contribuer à des résultats significatifs.
Les questions : Comment l'instabilité politique française actuelle affectera-t-elle les négociations interétatiques pour la déclaration politique du Sommet ? Paris parviendra-t-elle à intégrer les implications politiques des récentes publications et annonces (o3, DeepSeek, DeepResearch) ?
Le mot : Anticatastase - figure de style qui consiste à contredire ouvertement la réalité.
Le sommet d'action sur l'IA : petit guide à l'usage des décideurs politiques
Introduction : les sommets de Paris, de Séoul et de Bletchley Park
Le sommet d'action sur l'IA, qui se tiendra à Paris du 10 au 11 février 2025, marque un tournant dans la gouvernance mondiale de l'IA.
Progrès des capacités d'IA depuis le sommet de Séoul
Depuis le sommet de Séoul en mai 2024, les modèles d'IA ont progressé à un rythme sans précédent. Le modèle o3 d’OpenAI, publié trois mois seulement après o1, a battu de nombreuse évaluations, y compris GPQA et FrontierMath. Des évaluations récentes (ARC-AGI, CodeForce, GPQA) montrent que les modèles surpassent désormais régulièrement les experts humains dans des domaines clés. L’agent “Deep Research” d''OpenAI a également démontré des performances supérieures dans des évaluations telles que “Humanity’s Last Exam” et l’évaluation GAIA, ce qui indique de fortes capacités de raisonnement et une aptitude à traiter des questions de niveau expert dans divers domaines.
Alors que certains s'inquiètent de voir les modèles d'IA « jouer » aux tests de référence (ou évaluations), les progrès de l'apprentissage par renforcement suggèrent des gains réels en matière de raisonnement et de planification, avec moins de ressources. Les modèles R1 et DeepSeek-V3 de DeepSeek ont démontré de fortes performances avec des exigences informatiques moindres, ce qui soulève des inquiétudes quant au développement rapide de capacités potentiellement risquées (autrement dit, cette efficacité dans le développement de capacités de raisonnement avancées, que les chercheurs identifient comme un catalyseur potentiel de la planification à long terme, soulève des questions importantes quant à l'accélération du développement de capacités potentiellement risquées).
Les capacités avancées de l'IA étant concentrées dans quelques entreprises et pays, on peut s'attendre à ce que la nécessité de cadres de gouvernance mondiaux solides soit discutée, voire abordée à Paris.
Réalisations des sommets précédents
Les sommets de Bletchley Park et de Séoul se sont attaqués au décalage entre les motivations des entreprises privées qui développent des modèles d'IA à usage général et la sécurité publique. Alors que les entreprises se lancent dans une course au développement de ces modèles à usage général, la société en supporte les risques - de la désinformation aux menaces systémiques. En l'absence d'une gouvernance mondiale, les pressions concurrentielles peuvent l'emporter sur les considérations de sécurité.
Pour y remédier, les deux sommets ont mis l'accent sur la création :
Du rapport scientifique international sur la sécurité de l'IA avancée, pour créer une compréhension scientifique partagée des risques des systèmes d'IA à usage général ;
De normes minimales non contraignantes pour les entreprises qui développent ces systèmes, en définissant des seuils à partir desquels les risques d'un système d'IA à usage général deviennent intolérables en l'absence de mesures d'atténuation (engagements en matière de sécurité de l'IA à la frontière) ;
D’un rôle pour les gouvernements dans la participation aux tests de sécurité et la création de centres de sécurité de l'IA et de leurs réseaux.
Thèmes du sommet de Paris et résultats attendus
Le Sommet de Paris se concentre sur « l'IA positive », c'est-à-dire la création d'opportunités économiques ou sociales pour tous. Pour ce faire, il s'articule autour de cinq axes :
(a) Le volet d'intérêt public de l'IA
Le volet d'intérêt public vise à mettre en place une infrastructure ouverte essentielle pour le secteur mondial de l'IA afin d'obtenir des résultats bénéfiques sur le plan social, économique et environnemental.
La Fondation annoncée orientera l'écosystème de l'IA selon quatre axes : l'accès aux données, les modèles spécialisés, les normes d'ouverture et les systèmes d'audit indépendants, conformément aux recommandations antérieures concernant un fonds d'intérêt public pour l'IA.
Les questions en suspens pour les décideurs politiques sont les suivantes :
Comment s'assurer que la Fondation reste concentrée sur les résultats d'intérêt public tout en naviguant dans la dynamique des partenariats public-privé, en particulier en ce qui concerne la gouvernance des données et le développement de modèles ?
Comment les données gratuites et non commerciales seront-elles protégées d'une éventuelle exploitation commerciale ?
Comment la création d'un ensemble de données rares et uniques sera-t-elle rémunérée équitablement ?
(b) Le volet « confiance dans l'IA
Le volet « confiance » du sommet se concentre sur le renforcement de la confiance dans l'IA grâce à la science, aux solutions et aux normes. Les principaux résultats comprennent la présentation de la version finale du rapport scientifique international sur la sécurité de l'IA et la mise en œuvre d'engagements volontaires de gestion des risques de la part de 16 grandes entreprises d'IA.
Les décideurs politiques doivent promouvoir la transparence dans les modèles d'IA avancés et s'attaquer aux risques systémiques. La question clé reste la suivante : comment la gouvernance peut-elle rester à l'épreuve du temps si les engagements en matière de sécurité restent volontaires ?
Notamment, les experts et les citoyens qui ont participé à la consultation publique du sommet ont proposé une fiche d'évaluation des engagements des sociétés d'IA pour évaluer les engagements des sociétés.
Les résultats attendus comprennent également l'établissement d'un cadre de partage des connaissances et la converge des évaluations des modèles avancés des instituts de sécurité. Les décideurs politiques, suivant l'exemple de la France, pourraient également développer des outils permettant aux citoyens de détecter les manipulations d'informations.
(c) Gouvernance mondiale de l'IA
Les défis de la gouvernance de l'IA, y compris la fragmentation réglementaire entre les pays et les régions (G7, UE, etc.), les initiatives non coordonnées (processus d'Hiroshima, règlement sur l'IA de l'UE, etc.) et l'inclusion limitée devraient être adressées. Une feuille de route visant à clarifier les responsabilités respectives des organisations sur des questions clés telles que les lignes rouges, la répartition équitable des bénéfices et l'utilisation abusive de l'IA est notamment attendue.
(d) L'avenir du travail
Le volet « Avenir du travail » vise à créer des observatoires pour comprendre l'impact de l'IA sur le marché du travail, en se concentrant sur la productivité, les compétences et la qualité de l'emploi. Les décideurs politiques devraient également envisager la planification de scénarios afin d'aborder les effets transformateurs potentiels des futurs modèles d'IA.
(e) Innovation et culture
Le volet « innovation et culture » se concentrera sur la protection des professionnels de la création à l'ère de l'IA, en mettant l'accent sur cinq principes clés : le respect du droit d'auteur, la transparence du modèle d'IA, l'utilisation de contenus sous licence, une rémunération équitable et des sanctions efficaces en cas de non-respect des règles.
(f) Changement climatique
Bien qu'il ne s'agisse pas d'un thème spécifique, le sommet mettra l'accent sur les défis de l'IA liés au climat. On peut s'attendre à la présentation de 35
« défis de convergence » illustrant l'impact des systèmes d'IA actuels dans des secteurs tels que les soins de santé et l'adaptation au changement climatique, ainsi qu'à un accord multilatéral sur l'impact environnemental de la technologie.
Conversations attendues pour le sommet
Le sommet devrait donner lieu à des discussions cruciales sur la gouvernance de l'IA, avec l'émergence de plusieurs points clés :
Règlement européen sur l'IA et code de pratique : La Commission européenne présentera la dernière version du code de pratique pour la loi européenne sur l'IA. Le principal défi consiste à obtenir l'engagement des entreprises, car l'adhésion peut impliquer le respect des engagements de Séoul et de la loi européenne sur l'IA, qui est contraignante.
Perspectives scientifiques : Le sommet prévoit de présenter la version finale du rapport international sur la sécurité de l'IA, qui vise à fournir une évaluation rigoureuse et scientifique des capacités et des risques de l'IA d'avant-garde. Ce rapport représente un mécanisme essentiel pour l'élaboration de politiques fondées sur des données probantes, tout en reconnaissant que certains domaines requièrent de la prudence en l'absence de données probantes.
Évolution de la série des Sommets : Après les sommets de Bletchley Park et de Séoul, les participants sont impatients de voir comment le sommet de Paris maintiendra l'élan. Compte tenu des avancées technologiques significatives réalisées depuis Séoul, les décideurs politiques doivent réfléchir si et comment Paris façonne l'avenir de la série de sommets. Les questions clés portent notamment sur la manière d'établir une sélection transparente des hôtes, un calendrier cohérent et un champ d'application défini qui s'aligne sur les efforts existants en matière de gouvernance de l'IA.
Collaboration internationale : Pour que le sommet soit couronné de succès, les chercheurs et les experts s'accordent à dire que Paris doit obtenir un engagement de haut niveau de la part des États-Unis et de la Chine et faire preuve de responsabilité à l'égard des engagements pris par le passé. En tant que seul forum où la Chine se considère comme un membre fondateur, le sommet offre une occasion unique d'engager un dialogue constructif.
Inclusion significative : Avec plus de 100 chefs d'État invités, Paris fait un pas vers une représentation plus large de la gouvernance de l'IA, en engageant des régions historiquement sous-représentées comme l'Afrique, l'Amérique latine et l'Asie du Sud-Est. Bien que cela marque un progrès, des lacunes importantes persistent dans la participation mondiale.
Stratégies pour une participation efficace et une réussite
Tous les participants chercheront probablement à obtenir des engagements réalistes, un dialogue ouvert et un engagement soutenu malgré les complexités géopolitiques.
Pour ce faire, tous les décideurs politiques devraient profiter de tous les événements parallèles liés à l'IA qui se dérouleront à Paris.
Conclusion
Le sommet d'action sur l'IA arrive dans un contexte d'accélération des développements des modèles d’IA et des risques associés, avec des cycles de développement qui passent de plusieurs années à quelques mois.
Le succès dépendra de la traduction des discussions en engagements concrets, en veillant à ce que la gouvernance de l'IA suive le rythme des progrès rapides pour façonner l'IA au profit de la société. Il sera probablement mesuré à travers les multiples pistes du Sommet :
Gouvernance mondiale : Assurer une participation soutenue des États-Unis et de la Chine, renforcer Paris en tant que forum diplomatique clé.
Confiance et sécurité : Élaborer des mesures concrètes de responsabilisation, telles que la fiche d'évaluation des engagements de la société d'IA, afin de suivre le respect des normes de sécurité volontaires.
Intérêt public : jeter les bases d'une collaboration à long terme par l'intermédiaire de la “Fondation pour l'IA” et de sa plateforme d'incubation, tout en réalisant des progrès crédibles vers l'objectif de financement de 2,5 milliards d'euros.
Avenir du travail : Établir un réseau fonctionnel d'observatoires de l'IA avec des protocoles clairs de partage de données et de planification de scénarios pour l'évolution de l'impact de l'IA sur les marchés du travail.
Initiatives sur le climat : Lancer avec succès les 35 défis de convergence et obtenir un large engagement international en faveur des politiques d'impact environnemental de l'IA.
Le mot de la fin et les questions
Mot de la fin : Anticatastase - figure de style qui consiste à contredire ouvertement la réalité.
Les questions : Comment l'instabilité politique française actuelle affectera-t-elle les négociations interétatiques pour la déclaration politique du Sommet ? Paris réussira-t-elle à intégrer les implications des récentes publications et annonces (o3, DeepSeek R1 et V3, DeepResearch) ?
A lire :
Rapport international sur la sécurité de l'IA, janvier 2025
Actualités du Sommet d'action sur l'IA, en cours.
A écouter :
Bella Ciao
“Bella ciao. Bella ciao. Bella ciao, ciao, ciao. Oh mama mia.”
#6 - Last but not least: A Policymaker's Guide to Navigating the AI Action Summit
Key points:
Political Context: After an agreement was reached in a joint parliamentary committee, Prime Minister François Bayrou activated, on Feb. 3th, Article 49 paragraph 3 of the Constitution to have the 2025 Budget adopted without a parliamentary vote. This decision exposes the government to a no-confidence motion filed by La France Insoumise (far left), supported by the Communists and the Greens, which will be debated on Wednesday Feb. 5th. The Socialist Party (left) has announced that it will not support the motion, which leaves the far-right party Rassemblement National the sole decider of the government's fate. (Sounds familiar? Thanks for reading editions #2, #3, #4 and #5 of this newsletter!)
Analysis: The AI Action Summit in Paris marks a historic moment, bringing together an unprecedented coalition of 100 heads of state and 700 global leaders to build together a shared vision of AI. This mobilization comes at an opportune time, as technological capabilities accelerate. While the Summit proposes promising initiatives, including a €2.5 billion Foundation for Digital Commons and France’s AISI inclusion in the network of safety and security institutes, many questions remain open. This article will provide essential insights and strategies for policymakers to effectively engage with the Summit's key themes and contribute to meaningful outcomes.
The Questions: How will the current French political instability affect interstate negotiations for the Summit’s Political Declaration? Will Paris successfully integrate the policy implications of recent releases and announcements (o3, DeepSeek, DeepResearch)?
Word of this Edition: Anticatastasis - figure of speech that consists in openly contradicting reality.
A Policymaker's Guide to Navigating the AI Action Summit
Introduction: the Paris, Seoul and Bletchley Park Summits
The AI Action Summit, set to convene in Paris between February 10-11, 2025, marks a pivotal moment in global AI governance.
Progress in AI capabilities since the Seoul Summit
Since the Seoul Summit in May 2024, AI models have advanced at an unprecedented pace. OpenAI’s o3 model, released just three months after o1, broke multiple benchmarks, including GPQA and FrontierMath. Recent evaluations (ARC-AGI, CodeForce, GPQA) show models now consistently outperform human experts in key areas. OpenAI’s Deep Research also demonstrated superior performance in evaluations like the Humanity’s Last Exam and the GAIA benchmark, indicating strong reasoning capabilities and proficiency in handling expert-level questions across various subjects.
While some worry AI models might ‘game’ benchmarks, reinforcement learning progress suggests real gains in reasoning and planning, with fewer resources. DeepSeek’s R1 and DeepSeek-V3 models have demonstrated strong performance with lower computational demands, raising concerns about the rapid development of potentially risky capabilities (i.e - this efficiency in developing advanced reasoning capabilities, which researchers identify as a potential enabler of long-term planning, raises important questions about the accelerating development of potentially risky capabilities).
With AI advanced capabilities concentrated in a few companies and countries, one can expect the need for robust global governance frameworks to be discussed, if not tackled in Paris.
Past Summits’ achievements
The Bletchley Park and Seoul Summits tackled the misalignment between the incentives of private companies developing general-purpose AI models and public safety. As companies race to develop such general purpose models, society bears the risks, from misinformation to systemic threats. Without global governance, competitive pressures may override safety considerations.
To address this, both Summits focused on creating:
The international scientific report on the safety of advanced AI, to create a shared scientific understanding of the risks of general-purpose AI systems;
Non-binding minimum standards for companies developing these systems by defining thresholds at which the risks of a general-purpose AI system become intolerable in the absence of mitigation measures (Frontier AI Safety Commitments);
A role for governments to participate in safety testing, and creating AI safety centers and their networks.
Paris Summit Tracks and Expected Deliverables
The Paris Summit focuses “on positive AI”, i.e., the creation of economic or social opportunities for all. It does so with five tracks:
(a) Public Interest AI Track
The public interest track aims to build critical open infrastructure for the global AI sector to drive beneficial social, economic, and environmental outcomes.
The announced Foundation will steer the AI ecosystem through four tracks: data access, specialized models, openness standards, and independent audit systems, aligning with prior recommendations for a public-interest AI fund.
Open questions for policymakers include:
How can we ensure the Foundation remains focused on public interest outcomes while navigating public-private partnership dynamics, particularly regarding data governance and model development?
How will free, non-commercial data be protected from potential commercial exploitation?
How would the creation of a rare and unique dataset be fairly compensated?
(b) Trust in AI Track
The Summit’s trust track focuses on strengthening AI trust through science, solutions, and standards. Key deliverables include presenting the now final version of the International Scientific Report on AI Safety and operationalizing voluntary risk-management commitments from 16 leading AI companies.
Policymakers must push for transparency in advanced AI models and address systemic risks. The key question: How can governance stay future-proof if safety commitments remain voluntary?
Notably, experts and citizens in the Summit’s public consultation have proposed an AI Corporation Commitments Report Card to evaluate companies' voluntary commitments.
Expected outcomes also include establishing a knowledge-sharing framework, and standardizing Safety Institutes’ advanced model safety assessments. Policymakers, following France’s lead, may also develop tools for citizens to detect information manipulation.
(c) Global AI Governance Track
This track tackles AI governance challenges, including regulatory fragmentation across countries and regions (G7, EU, etc.), uncoordinated initiatives (Hiroshima Process, EU AI Act, etc.), and limited inclusivity. A roadmap to clarify organizations’ respective responsibilities among key issues like red lines, fair benefit distribution, and AI misuse is notably expected.
(d) Future of Work
The Future of Work track aims to create Observatories to understand AI's job market impact, focusing on productivity, skills, and job quality. Policymakers should also consider scenario planning to address potential transformative effects of future AI models.
(e) Innovation and Culture
The innovation and culture track will focus on protecting creative professionals in the AI era, emphasizing five key principles: copyright respect, AI model transparency, licensed content usage, fair compensation, and effective sanctions for non-compliance.
(f) Climate Change
Though not a dedicated track, the Summit will highlight climate-related AI challenges. We can expect the presentation of 35 "convergence challenges" showcasing the impact of current AI systems in sectors such as healthcare and climate change adaptation, and a multilateral agreement on the technology's environmental impact.
Expected Conversations for the Summit
The Summit will likely feature critical discussions around AI governance, with several key focal points emerging:
EU AI Act and Code of Practice: The European Commission will present the latest draft of the Code of Practice for the EU AI Act. The key challenge lies in securing company commitments, as adherence may imply compliance with the broader Seoul Commitments and the binding EU AI Act.
Scientific Insights: The Summit anticipates presenting the final version of the International AI Safety Report, which aims to provide a rigorous, science-driven assessment of frontier AI capabilities and risks. This report represents a pivotal mechanism for evidence-based policymaking while acknowledging that certain areas require caution in the absence of evidence.
Summit Series Evolution: Following the Bletchley and Seoul Summits, participants are eager to see how the Paris Summit will sustain momentum. With significant technological advances since Seoul, policymakers must consider how and if Paris shapes the series’ future. Key questions include how to establish transparent host selection, a consistent schedule, and a defined scope that aligns with existing AI governance efforts.
International Collaboration: For the Summit to succeed, researchers and experts agree that Paris must secure senior US-China engagement and demonstrate accountability for past commitments. As the only forum where China sees itself as a founding member, it presents a key opportunity for meaningful dialogue.
Meaningful Inclusion: With 100+ heads of state invited, Paris takes a step toward broader AI governance representation, engaging underrepresented regions like Africa, Latin America, and Southeast Asia. While this marks progress, significant gaps in global participation persist.
Strategies for Effective Participation and Success
All participants will likely aim for realistic commitments, open dialogue, and sustained engagement despite geopolitical complexities.
To do so, all policy-makers should profit from all AI-related side-events happening in Paris.
Conclusion
The AI Action Summit arrives amid unprecedented AI acceleration and associated risks, with development cycles shrinking from years to months.
Success will depend on translating discussions into actionable commitments, ensuring AI governance keeps pace with rapid advancements to shape AI for societal benefit. It will likely be measured across the Summit’s multiple tracks:
Global Governance: Ensuring sustained US-China participation, reinforcing Paris as a key diplomatic forum.
Trust & Safety: Developing concrete accountability measures, such as the AI Corporation Commitments Report Card to track compliance with voluntary safety standards.
Public Interest AI: Laying the foundation for long-term collaboration through the AI Foundation and its incubator platform, while making credible progress toward the €2.5B funding target.
Future of Work: Establishing a functional network of AI observatories with clear data-sharing protocols and scenario planning for AI’s evolving impact on labour markets.
Climate Initiatives: Successfully launching all 35 convergence challenges and securing broad international commitment to AI’s environmental impact policies.
Closing Word and Questions
Word of this Edition: Anticatastasis - figure of speech that consists in openly contradicting reality.
The Questions: How will the current French political instability affect interstate negotiations for the Summit’s Political Declaration? Will Paris successfully integrate the implications of recent releases and announcements (o3, DeepSeek R1 and V3, DeepResearch)?
To Read:
International AI Safety Report, Jan. 2025
Updates on the AI Action Summit, Ongoing.
To Listen:
Bella Ciao
“Bella ciao. Bella ciao. Bella ciao, ciao, ciao. Oh mama mia.”
Hi! I’m Ima Bello, AI Action Summit Lead for the non-profit FLI. Thank you for reading! Feel free to share your comments, constructive disagreements, or your interest in reading a specific analysis in the future.