5/12/2025

Pourquoi un accord international établissant des lignes rouges à l’IA est nécessaire et réaliste

Abstract

L’appel mondial à établir des lignes rouges pour l’IA a bénéficié d’un large soutien et d’une réception favorable, y compris de personnalités aux vues très différentes sur les risques liés à l’IA et sur les moyens d’y répondre. Cette réception positive était en partie attendue : de nombreuses organisations travaillant sur la sécurité de l’IA considéraient déjà ce type d’accord comme une voie prometteuse. Comme tout projet de ce type, l’appel a cependant suscité de nombreux débats et quelques objections, d’abord parmi ses initiateurs et ses signataires, puis parmi ses lecteurs. Cette note vise à répondre aux interrogations et critiques les plus fréquentes. Celles-ci se répartissent en trois catégories :

  1. Utilité : un tel accord est-il réellement nécessaire et apporterait-il une réduction significative des risques ?
  2. Faisabilité politique : un accord international est-il réaliste à l’heure où les principales puissances sont en compétition technologique ?
  3. Faisabilité technique : les lignes rouges peuvent-elles être définies de façon mesurable, vérifiable et suffisamment opérationnelle pour diminuer les risques ?

Nous examinons et répondons aux objections les plus fréquentes, en concédant leurs points forts et en soulignant les zones d’incertitude qui demeurent.

1. Utilité

Un accord international imposant des lignes rouges à l’IA est considéré utile car (1) l’IA expose les États et leurs populations à des risques majeurs et (2) un tel accord contribuerait efficacement à prévenir et atténuer ces risques.

1.a Nature des risques liés à l'IA

Les risques liés à l’IA sont-ils transfrontaliers ?

Parmi les treize catégories de risques répertoriées dans le rapport international sur la sûreté de l’IA avancée, la plupart sont transfrontaliers et au moins quatre soulèvent des menaces directes de sécurité nationale : manipulation de l’opinion publique, cyberattaques, armes chimiques et biologiques et perte de contrôle. Ces quatre catégories de risques se retrouvent fréquemment dans la littérature scientifique, dans la documentation interne des entreprises, et dans les cadres légaux en vigueur ou en construction (dont le Code de bonnes pratiques du EU AI Act).

Dispose-t-on de preuves concrètes des risques liés à l’IA ?

En matière de risques biologiques, certains agents conversationnels peuvent donner des instructions détaillées pour créer des agents pathogènes étape par étape. De leur côté, les modèles biologiques spécialisés pourraient aider à concevoir des pathogènes à la létalité ou à la transmissibilité plus élevées (Sandbrink et al., 2024). De récentes évaluations ont montré que les IA de pointe étaient capables de générer des protocoles expérimentaux de virologie jugés supérieurs à ceux de 94 % des experts humains (Götting et al., 2025).

L'IA constitue également une menace pour la cybersécurité mondiale : en 2024, 80 % des attaques par rançongiciel étaient déjà pilotées par l'IA (Siegel, 2025). Les modèles de pointe égalent désormais les meilleurs experts humains en programmation (Google Deepmind, 2025) et l'IA abaisse rapidement les barrières à l'entrée de cybercrimes sophistiqués (DARPA, 2024, Anthropic, 2025), avec un risque accru d'attaques contre des infrastructures critiques.

Des expériences récentes (Apollo, 2024 ; Redwood, 2024) ont démontré que les agents conversationnels avaient tendance, lorsque mis dans une situation où ils “pensent” qu’ils vont être mis hors-service, à manipuler leurs concepteurs, à désactiver les mécanismes de surveillance, à simuler des performances moindres lors des évaluations ou à tenter de s'exfiltrer vers des serveurs distants. Selon de récentes évaluations de sécurité (Google DeepMind, 2024), les experts prévoient que les IA pourraient être capables de se répliquer et de proliférer en ligne de manière autonome dès 2026, la prévision médiane se situant en 2027.

Quel est l’avis des scientifiques ?

Si les scientifiques ont des opinions assez hétérogènes quant à la gravité et à l’imminence de ces risques, une large majorité d’entre eux les estiment considérables. À titre d’exemple, 50% des chercheurs interrogés estiment à plus de 10 % la probabilité que l’incapacité de l'humanité à contrôler de futurs systèmes d’IA avancée l’expose à des risques existentiels (Grace et al., 2025). Cette crainte est partagée par plusieurs experts pionniers du domaine ainsi que par la majorité des citoyens dans la plupart des régions du monde.

1.b Pourquoi un accord international est nécessaire

Pourquoi des “lignes rouges internationales” plutôt qu’un autre type d’accord ou de régulation ?

Les lignes rouges constituent la mesure la plus : 

  • urgente : leur objectif premier est de prévenir les dommages les plus graves et potentiellement irréversibles pour l'humanité et la stabilité mondiale.
  • réaliste : ces lignes rouges représentent le plus petit dénominateur commun sur lequel les États peuvent s'accorder. Même les gouvernements opposés par des rivalités économiques ou géopolitiques partagent un intérêt commun à éviter des catastrophes qui dépasseraient leurs frontières.
  • largement soutenue : les grandes entreprises d'IA ont déjà reconnu la nécessité de lignes rouges, notamment lors du Sommet de Séoul sur l'IA 2024. Des scientifiques de premier plan des États-Unis et de Chine ont déjà appelé à définir des lignes rouges spécifiques. Il s'agit par ailleurs de la mesure la plus largement soutenue par les instituts de recherche, les groupes de réflexion et les organisations indépendantes.

Les entreprises ne peuvent-elles pas assumer elles-mêmes la sécurité de leurs modèles d’IA ?

La thèse selon laquelle les entreprises alloueraient autant de moyens à la sécurité de l’IA que ne leur permet leur avance technologique sur leurs concurrents est à la fois contredite par la théorie et par les faits. Dans la plupart des juridictions, les entreprises ont une obligation légale (fiduciary responsibility) d’agir dans l’intérêt de leurs actionnaires. Investir dans la sécurité au détriment de la vitesse de déploiement constituerait un désavantage compétitif immédiat. Dans les faits, la position des entreprises dans la course actuelle n’a aucune incidence sur les moyens que celles-ci allouent à la sécurité : toutes ont pour priorité la capacité des modèles et la conquête de parts de marché. Déployer des mesures de sécurité à grande échelle coûterait selon certaines estimations entre 1 millième et 1 centième du coût d’entraînement des modèles. Toutefois, si le résultat d’évaluations de sécurité conditionne la publication d’un modèle, le manque à gagner pourrait être bien plus élevé pour une entreprise s’imposant une limite à elle seule. Les entreprises qui priorisent davantage la sécurité, telles qu’Anthropic, sont contraintes de suivre le rythme de déploiement imposé par leurs concurrents et plaident à bon droit pour que les mêmes règles s’imposent à tous. 

Ne suffit-il pas que les entreprises s’accordent entre elles sur des "lignes rouges" volontaires ?

Au Sommet de Séoul sur l’IA, des entreprises se sont engagées à définir des limites à ne pas dépasser (Frontier AI Safety Commitments, AI Seoul Summit 2024). Une harmonisation des seuils de risques à ne pas dépasser serait un pas dans la bonne direction. Cependant, l'histoire de l’industrie montre que l'autorégulation atteint rapidement ses limites lorsqu'elle entre en conflit avec des enjeux de profitabilité. Sans contrainte légale, ces seuils de risque risquent d'être définis a minima. De plus, un engagement volontaire des entreprises n'empêche pas l'émergence d'un nouvel acteur "voyou" qui déciderait d'ignorer ces règles pour gagner un avantage décisif. Il est donc impératif que les seuils de risque soient définis de façon indépendante et traduits en obligations légales opposables.

Pourquoi les États ne peuvent-ils pas agir individuellement ?

Chaque gouvernement cherche à protéger sa population mais craint également de se laisser distancer technologiquement par des puissances rivales ou de subir les risques engendrés par des nations moins scrupuleuses. Si un pays impose unilatéralement des lignes rouges strictes, il prend le risque de voir ses champions technologiques délocaliser leurs activités vers des juridictions plus laxistes. Pour briser cette dynamique de compétition nivelant les normes de sécurité vers le bas, la coordination est impérative.

2. Faisabilité politique

Une première partie de la réponse réside dans l’observation que plusieurs traités historiques ont freiné, voire interrompu avec succès, le développement de technologies présentant des risques inacceptables.

Deux grands types d'objections peuvent être émises face à cet argument : (a) la particularité technologique de l’IA rendrait les comparaisons historiques caduques, et (b) la situation géopolitique actuelle serait trop différente des situations passées.

2.a Particularités technologiques de l’IA 

Il existe plusieurs différences significatives entre les technologies ayant fait l’objet d’une prohibition internationale par le passé et l’IA. Ces différences ne remettent cependant pas en cause l’utilité ni la plausibilité d’un accord international pour encadrer l’IA.

L'arme nucléaire n'avait pas d'application positive, contrairement à l'IA qui est "duale" et pleine de promesses. La situation n’est-elle donc pas incomparable ?

Une IA hors de contrôle ou massivement dévoyée (cyberattaques, armes autonomes, manipulation de l'opinion) ne confère aucun avantage stratégique à ses propriétaires. Des lignes rouges sont nécessaires pour permettre de profiter des avantages de l’IA sans exposer l’humanité à des préjudices et à des risques majeurs. Face à des risques dépassant les frontières, la coopération entre États est la seule forme rationnelle de poursuite des intérêts nationaux. 

Les CFC (gaz détruisant la couche d'ozone) étaient utiles mais substituables, contrairement à l’IA qui est une technologie généraliste par nature. 

L'interdiction ne vise pas « l'IA » dans son ensemble mais uniquement certains usages et capacités spécifiques à l’origine de risques universellement inacceptables (par exemple, l'auto-réplication autonome ou l'aide à la conception d'armes biologiques). Il s’agit uniquement d’orienter l’innovation vers des voies plus sûres, tout comme le Protocole de Montréal a forcé l'industrie à déployer des substituts efficaces aux CFC.

Les hydrocarbures, centraux dans l’économie et facteurs de puissance géopolitique, sont très difficiles à bannir, comme le montre l'échec des COP. L'IA ne suit-elle pas la même logique ?

Cette comparaison plaide en faveur d'une action rapide. Les hydrocarbures représentent 85% des sources d’énergie de l’économie moderne, tandis que l'IA avancée n'en est qu'au tout début de son déploiement économique. Il est infiniment plus facile d'interdire le développement de capacités dangereuses avant que celles-ci ne deviennent intrinsèquement liées à une technologie omniprésente dans nos vies.

2.b Particularités de la situation géopolitique actuelle

Malgré ces succès historiques, il est possible de s’interroger sur la dissemblance entre la situation actuelle et les situations historiques passées.

La Chine et les États-Unis n’ont-ils pas aucune chance de s’entendre sur une technologie aussi transformatrice ? 

Fin 2024, Washington et Pékin se sont accordés sur une première ligne rouge : ne pas déléguer le commandement et le contrôle de l’arme nucléaire à l’IA. Bien que limité, cet accord prouve qu'un accord bilatéral pour prévenir des risques existentiels est possible.

L'ambition assumée des Etats-Unis de "gagner la course" ne rend-elle pas toute concession sur la sécurité illusoire ? 

Le récit de la compétition était tout aussi omniprésent durant la Guerre Froide, ce qui n'a pas empêché la signature d’accords internationaux comme le traité de non-prolifération nucléaire (TNP). Les États, même rivaux, peuvent reconnaître un intérêt mutuel à prévenir des catastrophes.

D'ailleurs, l'administration américaine elle-même, tout en cherchant à "gagner", concède l'existence de risques graves, notamment dans le domaine CBRN (chimique, biologique, radiologique, nucléaire), comme l'indique le US AI Action Plan. Même des figures politiques très focalisées sur la compétition ont publiquement reconnu la nécessité de gérer les risques globaux, comme ceux liés aux armes biologiques.

Il faut reconnaître une difficulté majeure : toute ligne rouge nécessitant un ralentissement de l'augmentation de la la performance des modèles risque de se heurter à une résistance politique intense. Mais cette difficulté ne rend pas l'accord moins indispensable. Comme vu précédemment (1.b), les entreprises ont encore moins de chances que les États de s'accorder et de respecter un tel moratoire. Seule une coordination internationale contraignante peut surmonter la dynamique de course à la puissance.

2.c Cadre légal et réglementaire existant 

Partons-nous de zéro ? 

Plusieurs cadres légaux et réglementaires établissent déjà des lignes rouges à l’IA, mais ceux-ci ont des périmètres techniques géographiques et techniques restreints ou ne sont pas juridiquement contraignants. En voici quelques exemples : 

  • Normes et principes mondiaux : la Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle (2021), adoptée par l'ensemble des 193 États membres, appelle explicitement à interdire l'utilisation de systèmes d'IA pour l'évaluation sociale et la surveillance de masse.
  • Cadres juridiques contraignants : la Convention-cadre du Conseil de l'Europe sur l'IA est le tout premier traité international sur le sujet. Elle établit des règles contraignantes pour ses signataires afin de garantir que les systèmes d'IA soient compatibles avec les droits humains, la démocratie et l'État de droit. La Loi sur l'IA de l'UE (EU AI Act) crée un niveau de « risque inacceptable » prohibant strictement certains usages de l’IA au sein de l'Union européenne.
  • Dialogue bilatéral États-Unis-Chine : en 2024, les deux chefs d'État ont convenu que l'IA ne devrait jamais prendre de décisions concernant l'utilisation des armes nucléaires.
  • Consensus scientifique : les Directives universelles pour l'IA (Universal Guidelines for AI) (2018), soutenues par des centaines d'experts et des dizaines d'organisations de la société civile, établissent un « Principe de terminaison » clair, soit l'obligation d'arrêter tout système d'IA si un contrôle humain significatif ne peut plus être assuré. La Déclaration de Beijing de l'IDAIS sur la sécurité de l'IA (2024), un consensus émanant d'experts internationaux de premier plan, appelle explicitement à plusieurs lignes rouges, telles que la restriction des systèmes d'IA qui peuvent se répliquer ou évoluer de manière autonome sans supervision humaine.
  • Engagements de l'industrie : lors du Sommet de l'IA à Séoul, les principales entreprises d'IA ont pris les Engagements de Séoul (Seoul Commitments), s'engageant formellement à « définir des seuils au-delà desquels les risques graves posés par un modèle ou un système seraient considérés comme intolérables, à moins qu'ils ne soient atténués de manière adéquate ».

3. Faisabilité technique

3.a Difficultés relatives à la vérification

Le développement de l'IA n'est-il pas impossible à surveiller, contrairement aux installations nucléaires ? 

À l'heure actuelle, les modèles de pointe capables de franchir des lignes rouges reposent sur des infrastructures massives visibles par satellite, sur des milliers de puces spécialisées produites par un très petit nombre d'entreprises. Il est donc possible de mettre en place un suivi resserré des grands centres de données et des flux de puces électroniques de pointe. Par ailleurs, les technologies de surveillance ont considérablement progressé depuis la Guerre Froide, facilitant ce suivi logistique.

Enfin, la majorité des technologies faisant l’objet d’une prohibition internationale, telles que les armes chimiques ou le clonage humain à visée reproductive, ne reposent pas sur des infrastructures visibles ou facilement contrôlables. Cela n’empêche pas leur interdiction d’être efficace : en supprimant tout débouché légal dans l’industrie et la recherche, et en faisant peser des risques de sanctions internationales en cas d’usage militaire, les incitations à concevoir ces technologies diminuent considérablement.

Comment vérifier que l'IA n'est pas utilisée secrètement pour des usages interdits (armes biologiques, cyberattaques) ? 

C'est le point le plus délicat, car une fois le modèle entraîné, son usage est plus difficile à encadrer et à surveiller. La solution réside dans la mise en œuvre de mesures de sécurité extrêmement rigoureuses et exigeantes avant le déploiement des modèles de pointe. Pour que cela soit crédible, il est indispensable de créer une agence internationale d’audit indépendante, sur le modèle de l'Agence internationale de l'énergie atomique. Cette agence aurait pour mandat d'inspecter les "garde-fous" techniques intégrés aux modèles et de s'assurer qu'aucun acteur ne déploie de système au-delà des seuils de puissance autorisés sans ces mesures de sécurité.

La vérification ne sera jamais parfaite. N'est-ce pas un obstacle majeur ?

La perfection n'est pas nécessaire pour que l'accord soit efficace. Les conventions sur les armes biologiques et chimiques fonctionnent alors qu'il est techniquement facile de dissimuler un laboratoire clandestin. L'objectif d'un traité est de rendre la triche coûteuse et risquée. Même si le contrôle d'une superintelligence s'avère plus complexe que celui du nucléaire, l'existence d'un cadre de vérification international crée la confiance nécessaire pour que les États cessent la course aux armements et acceptent une transparence mutuelle.

3.b Difficultés relatives à l’application (enforcement

Contrairement au nucléaire, il n’existe pas de « destruction mutuelle assurée » avec l'IA. Comment, dès lors, dissuader un État de violer un futur accord ?

La dissuasion ne repose pas uniquement sur la loi du talion. Comme pour les traités sur les armes chimiques ou biologiques, la communauté internationale dispose de l'arsenal classique : sanctions économiques, isolement diplomatique et, en dernier recours, la menace d'une intervention militaire conventionnelle ou d’une cyberattaque pour neutraliser les infrastructures illégales.

Existe-t-il des moyens techniques pour bloquer un État qui ne respecterait pas les règles ? 

Puisque l'IA de pointe dépend de puces ultra-spécifiques, des mécanismes de sécurité peuvent être intégrés directement au niveau du hardware. Des spécialistes ont proposé le concept de « Mutually Assured Malfunctioning » (Dysfonctionnement Mutuel Assuré) (Hendrycks, et al., 2025). L'idée est d'équiper les puces exportées de mécanismes de verrouillage à distance (kill-switches). Si un État refuse les inspections ou franchit une ligne rouge, la coalition internationale pourrait techniquement désactiver à distance les supercalculateurs concernés. Ce levier technologique offrirait une capacité de coercition immédiate.

S'inscrire à notre newsletter