I summit sull’intelligenza artificiale devono prendere di nuovo sul serio la sicurezza

Firmatari recenti
Michele Giovanelli e altri 16 hanno firmato di recente.

Il problema

[Link alla petizione internazionale]


L’intelligenza artificiale ha migliorato la produttività umana e ha permesso alla medicina di progredire, ma i progressi rapidi comportano rischi che trascendono i confini nazionali. Gli avvertimenti dei maggiori esperti sono chiari: solo tramite la cooperazione internazionale il mondo può affrontare pericoli che vanno dall'uso improprio alla perdita del controllo.

Durante il primo AI Safety Summit (Bletchley 2023), la dichiarazione ha messo in guardia dal "potenziale di danni gravi, persino catastrofici" dell'intelligenza artificiale e i firmatari hanno deciso di collaborare per garantire che l'intelligenza artificiale rimanga sicura.

Tuttavia, durante l’AI Action Summit (Parigi 2025), la sicurezza è stata messa in secondo piano rispetto agli interessi economici. Il professor Max Tegmark del MIT ha affermato che "sembrava quasi che stessero cercando di disfare Bletchley", definendo l’omissione della sicurezza nella dichiarazione "una ricetta per il disastro."

Adesso si avvicina l’AI Impact Summit (Delhi, 19-20 febbraio 2026) con un numero di CEO presenti ancora maggiore rispetto a Parigi.

Da "Sicurezza" ad "Azione" a "Impatto": la tendenza appare cupa. Eppure, dodici premi Nobel e centinaia di esperti chiedono  che "i governi raggiungano un accordo internazionale sui limiti per l'IA, garantendone l'operatività e solidi meccanismi di controllo, entro la fine del 2026". 

Il summit di Delhi è un momento cruciale per rispondere a questa chiamata. Insieme possiamo invertire la rotta! 

 

La nostra richiesta

I summit sull'IA devono prendere di nuovo sul serio la sicurezza. Invitiamo la delegazione dell’Italia a sostenere pubblicamente le seguenti priorità al prossimo AI Impact Summit:

  1. Standard di sicurezza vincolanti. L'autoregolamentazione volontaria non crea vera sicurezza. Abbiamo bisogno di regole indipendenti che siano verificabili e applicabili.
  2. Linee rosse. L'IA ha bisogno di confini chiari: quali rischi sono inaccettabili? Quando è necessario interrompere lo sviluppo? Tali limiti possono essere applicati solo a livello internazionale.
    Il progresso tecnologico non è fine a se stesso, ma deve essere plasmato responsabilmente nell'interesse dell'umanità.

Ogni firma dimostra che il futuro dell'IA non deve essere deciso solo dalle aziende. La stragrande maggioranza della popolazione desidera maggiore protezione, e noi vogliamo una reale partecipazione democratica!

 

Quali sono le linee rosse per l’IA?

Le linee rosse proibiscono i sistemi di IA che rappresentano un rischio inaccettabile per tutti noi, inclusi i sistemi che:

  • sono sottoposti a un auto-miglioramento incontrollato,
  • ingannano sistematicamente gli esseri umani,
  • o consentono un uso improprio catastrofico come lo sviluppo di armi biologiche.

 

Come si potrebbe far rispettare un accordo internazionale?

L'addestramento di sistemi di IA avanzati richiede attualmente enormi data center con chip specializzati. Questa concentrazione rende la regolamentazione altamente fattibile.

Un accordo internazionale potrebbe basarsi su tre pilastri:

  1. Supervisione internazionale: un nuovo organismo internazionale verifica il rispetto degli standard di sicurezza in collaborazione con le autorità nazionali. La protezione dei whistleblower è garantita.
  2. Trasparenza informatica: i grandi cicli di addestramento sono registrati e supervisionati. I chip di IA possono essere progettati in modo che il loro utilizzo sia tracciabile.
  3. Conseguenze per le violazioni: gli stati concordano sanzioni congiunte contro chi oltrepassa le linee rosse e sviluppano strategie di risposta alle crisi

 

Cosa dicono gli esperti

"Mitigare il rischio di estinzione dovuto all'IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come pandemie e guerre nucleari." — Dichiarazione sul rischio dell'IA, firmata dai 3 scienziati dell'IA più citati e dagli amministratori delegati delle principali aziende di IA.

"Ho lavorato nel team di sicurezza di OpenAI per quattro anni e posso dirvi con certezza: le aziende di IA non prendono abbastanza sul serio la vostra sicurezza e non sono sulla buona strada per risolvere problemi di sicurezza critici." — Steven Adler, ex Dangerous Capability Evaluations Lead di OpenAI.

"Sottolineiamo: alcuni sistemi di IA oggi dimostrano già la capacità e la propensione a minare gli sforzi di sicurezza e controllo dei loro creatori." — Consenso dei principali ricercatori sulla sicurezza dell'IA, tra cui Stuart Russell e Andrew Yao. International Dialogues on AI Safety, Shanghai 2025

 

Chi siamo

Questa petizione è sostenuta da PauseAI, un movimento internazionale che chiede una pausa nello sviluppo dei sistemi di intelligenza artificiale più pericolosi fino a quando non saranno stabilite solide misure di sicurezza e partecipazione democratica. Sito web: pauseai.info 

avatar of the starter
Giulia C.Promotore della petizione

3889

Firmatari recenti
Michele Giovanelli e altri 16 hanno firmato di recente.

Il problema

[Link alla petizione internazionale]


L’intelligenza artificiale ha migliorato la produttività umana e ha permesso alla medicina di progredire, ma i progressi rapidi comportano rischi che trascendono i confini nazionali. Gli avvertimenti dei maggiori esperti sono chiari: solo tramite la cooperazione internazionale il mondo può affrontare pericoli che vanno dall'uso improprio alla perdita del controllo.

Durante il primo AI Safety Summit (Bletchley 2023), la dichiarazione ha messo in guardia dal "potenziale di danni gravi, persino catastrofici" dell'intelligenza artificiale e i firmatari hanno deciso di collaborare per garantire che l'intelligenza artificiale rimanga sicura.

Tuttavia, durante l’AI Action Summit (Parigi 2025), la sicurezza è stata messa in secondo piano rispetto agli interessi economici. Il professor Max Tegmark del MIT ha affermato che "sembrava quasi che stessero cercando di disfare Bletchley", definendo l’omissione della sicurezza nella dichiarazione "una ricetta per il disastro."

Adesso si avvicina l’AI Impact Summit (Delhi, 19-20 febbraio 2026) con un numero di CEO presenti ancora maggiore rispetto a Parigi.

Da "Sicurezza" ad "Azione" a "Impatto": la tendenza appare cupa. Eppure, dodici premi Nobel e centinaia di esperti chiedono  che "i governi raggiungano un accordo internazionale sui limiti per l'IA, garantendone l'operatività e solidi meccanismi di controllo, entro la fine del 2026". 

Il summit di Delhi è un momento cruciale per rispondere a questa chiamata. Insieme possiamo invertire la rotta! 

 

La nostra richiesta

I summit sull'IA devono prendere di nuovo sul serio la sicurezza. Invitiamo la delegazione dell’Italia a sostenere pubblicamente le seguenti priorità al prossimo AI Impact Summit:

  1. Standard di sicurezza vincolanti. L'autoregolamentazione volontaria non crea vera sicurezza. Abbiamo bisogno di regole indipendenti che siano verificabili e applicabili.
  2. Linee rosse. L'IA ha bisogno di confini chiari: quali rischi sono inaccettabili? Quando è necessario interrompere lo sviluppo? Tali limiti possono essere applicati solo a livello internazionale.
    Il progresso tecnologico non è fine a se stesso, ma deve essere plasmato responsabilmente nell'interesse dell'umanità.

Ogni firma dimostra che il futuro dell'IA non deve essere deciso solo dalle aziende. La stragrande maggioranza della popolazione desidera maggiore protezione, e noi vogliamo una reale partecipazione democratica!

 

Quali sono le linee rosse per l’IA?

Le linee rosse proibiscono i sistemi di IA che rappresentano un rischio inaccettabile per tutti noi, inclusi i sistemi che:

  • sono sottoposti a un auto-miglioramento incontrollato,
  • ingannano sistematicamente gli esseri umani,
  • o consentono un uso improprio catastrofico come lo sviluppo di armi biologiche.

 

Come si potrebbe far rispettare un accordo internazionale?

L'addestramento di sistemi di IA avanzati richiede attualmente enormi data center con chip specializzati. Questa concentrazione rende la regolamentazione altamente fattibile.

Un accordo internazionale potrebbe basarsi su tre pilastri:

  1. Supervisione internazionale: un nuovo organismo internazionale verifica il rispetto degli standard di sicurezza in collaborazione con le autorità nazionali. La protezione dei whistleblower è garantita.
  2. Trasparenza informatica: i grandi cicli di addestramento sono registrati e supervisionati. I chip di IA possono essere progettati in modo che il loro utilizzo sia tracciabile.
  3. Conseguenze per le violazioni: gli stati concordano sanzioni congiunte contro chi oltrepassa le linee rosse e sviluppano strategie di risposta alle crisi

 

Cosa dicono gli esperti

"Mitigare il rischio di estinzione dovuto all'IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come pandemie e guerre nucleari." — Dichiarazione sul rischio dell'IA, firmata dai 3 scienziati dell'IA più citati e dagli amministratori delegati delle principali aziende di IA.

"Ho lavorato nel team di sicurezza di OpenAI per quattro anni e posso dirvi con certezza: le aziende di IA non prendono abbastanza sul serio la vostra sicurezza e non sono sulla buona strada per risolvere problemi di sicurezza critici." — Steven Adler, ex Dangerous Capability Evaluations Lead di OpenAI.

"Sottolineiamo: alcuni sistemi di IA oggi dimostrano già la capacità e la propensione a minare gli sforzi di sicurezza e controllo dei loro creatori." — Consenso dei principali ricercatori sulla sicurezza dell'IA, tra cui Stuart Russell e Andrew Yao. International Dialogues on AI Safety, Shanghai 2025

 

Chi siamo

Questa petizione è sostenuta da PauseAI, un movimento internazionale che chiede una pausa nello sviluppo dei sistemi di intelligenza artificiale più pericolosi fino a quando non saranno stabilite solide misure di sicurezza e partecipazione democratica. Sito web: pauseai.info 

avatar of the starter
Giulia C.Promotore della petizione
Sostieni ora

3889


Aggiornamenti sulla petizione