15/10/2025

Arthur Grimonpont

L’Appel mondial à établir des lignes rouges pour l’IA, initié par le CeSIA, est lancé à l’ONU

Le 22 septembre 2025 a été publié l'Appel mondial pour l’établissement de lignes rouges pour l’intelligence artificielle. Initié par le Centre pour la Sécurité de l'IA (CeSIA) et co-organisé avec The Future Society et le Center for Human-Compatible AI de l'Université de Berkeley, cet appel est inédit par la notoriété et la diversité exceptionnelles de ses signataires, sa réception au plus haut niveau diplomatique et sa large couverture médiatique.

L’Appel réunit les voix de plus de 300 personnalités reconnues du monde entier et est soutenu par plus de 90 organisations. Les signataires demandent aux États de conclure, d'ici fin 2026, un accord international pour prohiber les utilisations et les capacités de l’IA présentant des risques inacceptables pour la sécurité mondiale et la dignité humaine.

Consultez l'appel et voir les signataires sur : red-lines.ai

Un soutien inédit 

Des personnalités prestigieuses de tous horizons ont prêté leur voix à l’Appel. Parmi elles :

  • 9 anciens chefs d'État et ministres, tels que Mary Robinson, Juan Manuel Santos et Enrico Letta ;
  • 11 lauréats du prix Nobel, dont Joseph Stiglitz, Maria Ressa, Daron Acemoglu et Geoffrey Hinton ;
  • Des pionniers de l'IA et lauréats du prix Turing, dont Yoshua Bengio et Andrew Yao ;
  • Des décideurs politiques, dont Audrey Tang, première ministre du Numérique de Taïwan, et Csaba Kőrösi, ancien président de l'Assemblée générale des Nations unies ;
  • Des intellectuels de premier plan, tels que Yuval Noah Harari et Jean Jouzel ;
  • Des dirigeants et cadres de l'industrie, dont le cofondateur d'OpenAI Wojciech Zaremba, Ian Goodfellow de Google DeepMind, et Jason Clinton, CISO d'Anthropic.

Plusieurs signataires emblématiques ont souligné l’urgence de la situation :

Il est dans notre intérêt commun vital d'empêcher l'IA d'infliger des dommages graves et potentiellement irréversibles à l'humanité, et nous devons agir en conséquence. »

— Ahmet Üzümcü, ancien Directeur général de l'Organisation pour l'interdiction des armes chimiques (OIAC), lauréat du prix Nobel de la paix 2013.

Au cours de sa longue histoire, l'humanité n'a jamais rencontré d'intelligence supérieure à la sienne. D'ici quelques années, ce sera le cas. Mais nous sommes loin d'y être préparés en termes de réglementations, de garanties et de gouvernance. »

— Csaba Kőrösi, ancien Président de l'Assemblée générale des Nations Unies.

La course actuelle vers des systèmes d’IA toujours plus puissants et autonomes représente un risque majeur pour nos sociétés, et une collaboration internationale est urgemment nécessaire pour y faire face. Définir des lignes rouges constitue une étape cruciale pour prévenir les risques inacceptables liés à l’IA. »

— Yoshua Bengio, lauréat du prix Turing (2018)

Des menaces exceptionnelles appellent à une réponse exceptionnelle

Au cours des dernières années, un consensus croissant parmi les experts s’est formé autour des risques posés par l’IA. Certains constituent des menaces particulièrement graves dont la probabilité augmente rapidement à mesure que la technologie progresse. L’Appel vise à interdire les capacités et les usages de l'IA qui posent des risques universellement inacceptables.

Voici des exemples de lignes rouges susceptibles d'obtenir un large soutien international : 

  • Interdire les systèmes d'armes qui opèrent sans un contrôle humain significatif.
  • Interdire la délégation à une IA de l'autorité de lancement d'armes nucléaires.
  • Interdire l'utilisation de l'IA pour la notation sociale (« social scoring ») et la surveillance de masse.
  • Interdire les systèmes d'IA capables de se répliquer ou de s'améliorer sans supervision humaine explicite.
  • Interdire le déploiement de systèmes d'IA qui facilitent de manière critique la conception ou la fabrication d'armes de destruction massive.
  • Interdire les systèmes d'IA qui ne peuvent pas être mis hors service de manière fiable et immédiate en cas de besoin.

Face à ces menaces mondiales et irréversibles, la coopération internationale est la seule stratégie efficace. S’inspirant d’accords historiques tels que le Traité sur la non-prolifération des armes nucléaires (1970) ou la Convention sur l’interdiction des armes biologiques (1975), l'Appel souligne que même des nations rivales partagent un intérêt commun à prévenir des catastrophes aux conséquences potentiellement irréversibles et transcendant les frontières.

Si plusieurs pays se sont dotés de législations au cours des dernières années, comme l'AI Act européen, ces cadres nationaux sont insuffisants du fait de leur périmètre géographique limité et d'une absence de mécanismes de vérification et de contrôle contraignants à l'échelle mondiale.

Le développement d'une IA très performante pourrait être l'événement le plus important de l'histoire de l'humanité. Il est impératif que les puissances mondiales agissent de manière décisive pour s'assurer que ce ne soit pas le dernier. »

— Stuart Russell, Professeur d'informatique à l'Université de Californie, Berkeley.

Une réception au plus haut niveau diplomatique

L'Appel a été lancé dans un contexte de prise de conscience internationale des dangers liés à l’IA et de la nécessité de l’encadrer. Le principe des limites contraignantes pour l'IA n'avait jamais été discuté aussi ouvertement et à ce niveau diplomatique avant septembre 2025.

Lors d'une session historique du Conseil de sécurité de l'ONU consacrée à l'IA, le Secrétaire général Antonio Guterres a lancé un appel ferme à agir pour interdire les systèmes d'armes létales autonomes fonctionnant sans contrôle humain. Dans la foulée, le pionnier de l'IA Yoshua Bengio a pris la parole pour présenter l’Appel mondial à établir des lignes rouges.

Un consensus sur la nécessité de fixer des limites internationales claires commence à émerger. La Chine a déclaré : « Il est essentiel de garantir que l'IA reste sous contrôle humain et d'empêcher l'émergence d'armes autonomes létales qui fonctionnent sans intervention humaine. » La France a affirmé « qu'aucune décision de vie ou de mort ne devrait jamais être transférée à un système d'arme autonome fonctionnant sans aucun contrôle humain. » Les États-Unis, bien que rejetant l'idée d'une « gouvernance mondiale centralisée », ont reconnu la nécessité de la coopération internationale pour faire face à des menaces globales, s'engageant notamment à mettre au point « un système de vérification de l'IA auquel tout le monde peut faire confiance » pour faire appliquer la Convention sur les armes biologiques.

Cet élan a été renforcé par des initiatives convergentes, comme la lettre ouverte « Fraternité à l'ère de l'IA » lancée par des experts missionnés par le Vatican, qui appelle également à fixer des limites fondamentales pour que l'IA serve « l'humanité dans son ensemble ».

Prochaines étapes : de l'Appel à un projet d’accord international

L’Appel a été lancé et écouté au plus haut niveau. Pour traduire cette dynamique en action concrète, le CeSIA souhaite contribuer, aux côtés de ses partenaires, à l’impulsion d’une trajectoire diplomatique permettant de parvenir à un accord d'ici fin 2026.

De nombreuses opportunités peuvent être explorées. Le nouveau Groupe scientifique indépendant des Nations Unies sur l'IA pourrait établir un groupe de travail pour définir techniquement ces prohibitions. Le Sommet sur l'Impact de l'IA en Inde en février 2026 représente une occasion pour que les États endossent une première série de lignes rouges standardisées, en s'appuyant sur les engagements déjà pris par l'industrie lors du Sommet de Séoul sur la sécurité de l'IA. Le Dialogue mondial des Nations Unies sur la gouvernance de l'IA pourrait diriger une consultation avec les scientifiques, la société civile et l'industrie pour affiner ces lignes rouges d'ici mi-2026. Différentes plateformes intergouvernementales pourraient porter un projet d’accord international.

Une couverture médiatique mondiale

L'appel a reçu une large couverture médiatique internationale, avec des articles dans plus de 300 publications du monde entier, dont The New York Times, Le Monde, TIME Magazine, El País, Associated Press (AP), NBC News, The Verge, India Today, et Euronews.

Plus d'informations

Pour des réponses plus détaillées sur ce que sont les lignes rouges, leur importance, des exemples concrets ou encore leurs mécanismes d'application, nous vous invitons à consulter la FAQ complète disponible sur le site de l'Appel.

S'inscrire à notre newsletter