Les Sommets sur l'IA doivent reprendre la sécurité au sérieux

Le problème

[Lien de la pétition internationale]
L'IA a amélioré la productivité et fait progresser la médecine, mais ses progrès rapides comportent des risques qui transcendent toutes les frontières nationales. Les avertissements des principaux experts sont clairs : seule la coopération internationale permettra au monde de faire face aux dangers allant du détournement à la perte de contrôle.

Lors du premier Sommet sur la Sécurité de l'IA (Bletchley 2023), la déclaration mettait en garde contre le « potentiel de dommages graves, voire catastrophiques » de l'IA et les signataires se sont engagés à travailler ensemble pour garantir la sécurité de l'IA.

Mais lors du Sommet d'Action sur l'IA (Paris 2025), la sécurité a été reléguée au second plan par les intérêts économiques. Le professeur Max Tegmark du MIT a déclaré qu'« on avait presque l'impression qu'ils essayaient de défaire Bletchley », qualifiant l'omission de la sécurité dans la déclaration de « recette pour le désastre ».

Le prochain Sommet de l'Impact de l'IA en Inde (Delhi, du 16 au 20 février 2026) approche, avec encore plus de PDG participants qu'à Paris.

De « Sécurité » à « Action » puis à « Impact » — la tendance semble inquiétante. Pourtant, douze lauréats du prix Nobel et des centaines d'experts appellent « les gouvernements à parvenir à un accord international sur des lignes rouges pour l'IA — en veillant à ce qu'elles soient opérationnelles, avec des mécanismes d'application robustes — d'ici la fin de 2026 ».

Le sommet de Delhi est un moment critique pour répondre à cet appel. Ensemble, nous pouvons inverser la tendance !

Notre Demande
Les sommets sur l'IA doivent à nouveau prendre la sécurité au sérieux. Nous appelons la délégation de la France à défendre publiquement les priorités suivantes lors du prochain Sommet de l'Impact de l'IA :

  1. Des Normes de sécurité contraignantes. L'autorégulation volontaire ne crée pas de véritable sécurité. Nous avons besoin de règles indépendantes qui soient vérifiables et applicables.
  2. Des Lignes rouges. L'IA a besoin de limites claires : Quels risques sont inacceptables ? Quand le développement doit-il être arrêté ? De telles limites ne peuvent être appliquées qu'au niveau international.

Le progrès technologique n'est pas une fin en soi, mais doit être orienté de manière responsable dans l'intérêt de l'humanité.

Chaque signature démontre que l'avenir de l'IA ne doit pas être décidé par les seules entreprises. L'immense majorité de la population souhaite plus de protection, et nous voulons une véritable participation démocratique !

Que sont les lignes rouges pour l'IA ?
Les lignes rouges interdisent les systèmes d'IA qui présentent un risque inacceptable pour nous tous, notamment les systèmes qui :

  • s’engagent dans une auto-amélioration incontrôlée,
  • trompent systématiquement les humains,
  • ou permettent des usages malveillants à grande échelle, comme le développement d'armes biologiques.

Comment un accord international pourrait-il être appliqué ?
L'entraînement de systèmes d'IA avancés nécessite actuellement des centres de données massifs avec des puces spécialisées. Cette concentration rend la régulation hautement réalisable.

Un accord international pourrait reposer sur trois piliers :

  1. Surveillance internationale : Un nouvel organisme international vérifie le respect des normes de sécurité en coopération avec les autorités nationales. Les lanceurs d'alerte sont protégés.
  2. Transparence de la puissance de calcul : les cycles d'entraînement sont enregistrés et supervisés. Les puces d'IA peuvent être conçues de manière à ce que leur utilisation soit traçable.
  3. Conséquences en cas de violations : Les États conviennent de sanctions communes contre les acteurs qui franchissent les lignes rouges et développent des stratégies communes de réponse aux crises.

Ce que disent les experts
« Atténuer le risque d'extinction dû à l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. » — Déclaration sur les risques de l'IA, lancé en mai 2023 par le Center for AI Safety, signée par les 3 scientifiques les plus cités du domaine et les PDG des principales entreprises d'IA.

« J'ai travaillé dans l'équipe de sécurité d'OpenAI pendant quatre ans, et je peux vous le dire en toute confiance : les entreprises d'IA ne prennent pas votre sécurité suffisamment au sérieux, et elles ne sont pas sur la bonne voie pour résoudre les problèmes de sécurité critiques. » — Steven Adler, ancien responsable des évaluations des capacités dangereuses chez OpenAI.

« Nous insistons : certains systèmes d'IA démontrent déjà la capacité et la propension à contourner les dispositifs de sécurité et de contrôle de leurs créateurs. » — Consensus des principaux chercheurs en sécurité de l'IA, dont Stuart Russell et Andrew Yao. Dialogues internationaux sur la sécurité de l'IA, Shanghai 2025.

À propos de nous
Cette pétition est soutenue par Pause IA, un mouvement citoyen international plaidant pour une pause dans le développement des systèmes d'IA les plus dangereux jusqu'à ce que des mesures de sécurité robustes et une participation démocratique soient établies. Site web : pauseia.fr

 

 

avatar of the starter
Clémence PEYROTLanceur de pétition

3 885

Le problème

[Lien de la pétition internationale]
L'IA a amélioré la productivité et fait progresser la médecine, mais ses progrès rapides comportent des risques qui transcendent toutes les frontières nationales. Les avertissements des principaux experts sont clairs : seule la coopération internationale permettra au monde de faire face aux dangers allant du détournement à la perte de contrôle.

Lors du premier Sommet sur la Sécurité de l'IA (Bletchley 2023), la déclaration mettait en garde contre le « potentiel de dommages graves, voire catastrophiques » de l'IA et les signataires se sont engagés à travailler ensemble pour garantir la sécurité de l'IA.

Mais lors du Sommet d'Action sur l'IA (Paris 2025), la sécurité a été reléguée au second plan par les intérêts économiques. Le professeur Max Tegmark du MIT a déclaré qu'« on avait presque l'impression qu'ils essayaient de défaire Bletchley », qualifiant l'omission de la sécurité dans la déclaration de « recette pour le désastre ».

Le prochain Sommet de l'Impact de l'IA en Inde (Delhi, du 16 au 20 février 2026) approche, avec encore plus de PDG participants qu'à Paris.

De « Sécurité » à « Action » puis à « Impact » — la tendance semble inquiétante. Pourtant, douze lauréats du prix Nobel et des centaines d'experts appellent « les gouvernements à parvenir à un accord international sur des lignes rouges pour l'IA — en veillant à ce qu'elles soient opérationnelles, avec des mécanismes d'application robustes — d'ici la fin de 2026 ».

Le sommet de Delhi est un moment critique pour répondre à cet appel. Ensemble, nous pouvons inverser la tendance !

Notre Demande
Les sommets sur l'IA doivent à nouveau prendre la sécurité au sérieux. Nous appelons la délégation de la France à défendre publiquement les priorités suivantes lors du prochain Sommet de l'Impact de l'IA :

  1. Des Normes de sécurité contraignantes. L'autorégulation volontaire ne crée pas de véritable sécurité. Nous avons besoin de règles indépendantes qui soient vérifiables et applicables.
  2. Des Lignes rouges. L'IA a besoin de limites claires : Quels risques sont inacceptables ? Quand le développement doit-il être arrêté ? De telles limites ne peuvent être appliquées qu'au niveau international.

Le progrès technologique n'est pas une fin en soi, mais doit être orienté de manière responsable dans l'intérêt de l'humanité.

Chaque signature démontre que l'avenir de l'IA ne doit pas être décidé par les seules entreprises. L'immense majorité de la population souhaite plus de protection, et nous voulons une véritable participation démocratique !

Que sont les lignes rouges pour l'IA ?
Les lignes rouges interdisent les systèmes d'IA qui présentent un risque inacceptable pour nous tous, notamment les systèmes qui :

  • s’engagent dans une auto-amélioration incontrôlée,
  • trompent systématiquement les humains,
  • ou permettent des usages malveillants à grande échelle, comme le développement d'armes biologiques.

Comment un accord international pourrait-il être appliqué ?
L'entraînement de systèmes d'IA avancés nécessite actuellement des centres de données massifs avec des puces spécialisées. Cette concentration rend la régulation hautement réalisable.

Un accord international pourrait reposer sur trois piliers :

  1. Surveillance internationale : Un nouvel organisme international vérifie le respect des normes de sécurité en coopération avec les autorités nationales. Les lanceurs d'alerte sont protégés.
  2. Transparence de la puissance de calcul : les cycles d'entraînement sont enregistrés et supervisés. Les puces d'IA peuvent être conçues de manière à ce que leur utilisation soit traçable.
  3. Conséquences en cas de violations : Les États conviennent de sanctions communes contre les acteurs qui franchissent les lignes rouges et développent des stratégies communes de réponse aux crises.

Ce que disent les experts
« Atténuer le risque d'extinction dû à l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. » — Déclaration sur les risques de l'IA, lancé en mai 2023 par le Center for AI Safety, signée par les 3 scientifiques les plus cités du domaine et les PDG des principales entreprises d'IA.

« J'ai travaillé dans l'équipe de sécurité d'OpenAI pendant quatre ans, et je peux vous le dire en toute confiance : les entreprises d'IA ne prennent pas votre sécurité suffisamment au sérieux, et elles ne sont pas sur la bonne voie pour résoudre les problèmes de sécurité critiques. » — Steven Adler, ancien responsable des évaluations des capacités dangereuses chez OpenAI.

« Nous insistons : certains systèmes d'IA démontrent déjà la capacité et la propension à contourner les dispositifs de sécurité et de contrôle de leurs créateurs. » — Consensus des principaux chercheurs en sécurité de l'IA, dont Stuart Russell et Andrew Yao. Dialogues internationaux sur la sécurité de l'IA, Shanghai 2025.

À propos de nous
Cette pétition est soutenue par Pause IA, un mouvement citoyen international plaidant pour une pause dans le développement des systèmes d'IA les plus dangereux jusqu'à ce que des mesures de sécurité robustes et une participation démocratique soient établies. Site web : pauseia.fr

 

 

avatar of the starter
Clémence PEYROTLanceur de pétition
Soutenir maintenant

3 885


Voix de signataires

Mises à jour sur la pétition