Summiturile privind IA trebuie să ia din nou siguranța în serios

Recent signers:
フォタケ イワナ and 14 others have signed recently.

The Issue

[Link internațional]

Inteligența Artificială (IA) a îmbunătățit productivitatea umană și a contribuit la dezvoltarea medicinei, însă progresul rapid implică riscuri care depășesc toate frontierele naționale. Avertismentele experților de vârf sunt clare: pericolele, începând de la utilizarea abuzivă și până la pierderea controlului asupra IA pot fi abordate doar prin cooperare internațională. [1, 2]

La primul Summit privind Siguranța IA (Bletchley 2023), declarația  a avertizat asupra "potențialului de vătămare gravă, chiar catastrofală" al IA, iar semnatarii s-au angajat să colaboreze pentru a se asigura că IA rămâne sigură.

Cu toate acestea, la Summitul de Acțiune privind IA (Paris 2025), siguranța a fost lăsată pe plan secund în favoarea intereselor economice. Profesorul Max Tegmark de la MIT a declarat că "aproape se încearca să se submineze Bletchley," considerând omiterea siguranței din declarație "o rețetă pentru dezastru."

Acum Summitul privind Impactul IA (Delhi, 19-20 februarie 2026) se apropie, cu participarea a unui număr și mai mare de reprezentanți ai corporațiilor, comparativ cu summitul de la Paris.

De la "Siguranță" la "Acțiune" la "Impact" - tendința este îngrijorătoare. Cu toate acestea, peste 100  de parlamentari britanici consideră necesară adoptarea de reglementări obligatorii pentru cele mai puternice sisteme IA iar doisprezece laureați Nobel și sute de experți cer guvernelor ”să ajungă la un acord internațional privind limitele de netrecut pentru IA — asigurându-se că acestea sunt operaționale și cu mecanisme solide de aplicare – până la sfârșitul anului 2026."

Summitul de la Delhi reprezintă un moment crucial pentru a da curs apelului acestora. Împreună putem schimba cursul!

Cererea noastră

Summiturile privind IA trebuie să ia din nou siguranța în serios. Facem apel la delegația României să pledeze public pentru următoarele priorități la viitorul Summit privind Impactul IA:

  1. Standarde de siguranță obligatorii. Autoreglementarea voluntară nu creează siguranță reală. Avem nevoie de reguli independente care să fie verificabile și aplicabile.
  2. Limite de netrecut. IA are nevoie de limite clare: Care sunt riscurile inacceptabile? Când trebuie oprită dezvoltarea? Astfel de limite pot fi impuse doar la nivel internațional.

Progresul tehnologic nu este un scop ce se atinge fără consecințe și este important să fie modelat în mod responsabil în interesul umanității.

Fiecare semnătură demonstrează că viitorul IA nu trebuie decis exclusiv de corporații. Marea majoritate a populației dorește mai multă protecție, iar noi dorim o participare democratică reală!

Care sunt limitele de netrecut pentru IA?

Limitele de netrecut interzic sistemele IA care prezintă un risc inacceptabil pentru noi toți, inclusiv sistemele care:

  • trec prin procese de auto-îmbunătățire necontrolată,
  • înșeală sistematic oamenii
  • permit utilizarea abuzivă catastrofală, cum ar fi dezvoltarea de arme biologice.

Cum ar putea fi implementat un acord internațional?

Antrenarea sistemelor avansate de IA necesită în prezent centre de date masive cu cipuri specializate. Această concentrare face reglementarea posibilă.

Un acord internațional ar putea fi construit pe trei piloni:

  1. Supraveghere internațională: Un nou organism internațional care verifică conformitatea cu standardele de siguranță în cooperare cu autorități naționale. Avertizorii de integritate sunt protejați.
  2. Transparența puterii de calcul: Procesele mari de antrenare sunt înregistrate și supravegheate. Cipurile de IA pot fi proiectate astfel încât utilizarea lor să fie trasabilă.
  3. Consecințe pentru încălcări: Statele convin asupra sancțiunilor comune împotriva actorilor care încalcă limitele de netrecut impuse și elaborează strategii de răspuns la criză.

Ce spun experții

"Atenuarea riscului de extincție cauzat de IA ar trebui să fie o prioritate globală, alături de alte riscuri la scară socială, cum ar fi pandemiile și războiul nuclear." - Declarația privind riscul IA, semnată de 3 dintre cei mai citați cercetători IA și de directorii generali ai companiilor de IA de frunte.

"Am lucrat în echipa de siguranță a OpenAI timp de patru ani și vă pot spune cu încredere: companiile de IA nu iau în serios suficient siguranța dumneavoastră și nu sunt pe drumul cel bun pentru a rezolva problemele critice de siguranță." - Steven Adler, fost lider al evaluărilor capabilităților periculoase la OpenAI.

"Subliniem: unele sisteme IA de astăzi demonstrează deja capacitatea și tendința de a submina eforturile de siguranță și control ale creatorilor lor." - Consensul cercetătorilor de vârf în siguranța IA, inclusiv Stuart Russell și Andrew Yao. Dialoguri Internaționale privind Siguranța IA, Shanghai 2025.

Despre noi

Această petiție este susținută de PauseAI, o mișcare civică internațională care militează pentru o mai mare siguranță și un control democratic al sistemelor puternice de IA. Website: pauseai.info

 

 

avatar of the starter
Raluca SpataruPetition StarterPauseAI Romania Country Lead, Lawyer, PhD student

3,889

Recent signers:
フォタケ イワナ and 14 others have signed recently.

The Issue

[Link internațional]

Inteligența Artificială (IA) a îmbunătățit productivitatea umană și a contribuit la dezvoltarea medicinei, însă progresul rapid implică riscuri care depășesc toate frontierele naționale. Avertismentele experților de vârf sunt clare: pericolele, începând de la utilizarea abuzivă și până la pierderea controlului asupra IA pot fi abordate doar prin cooperare internațională. [1, 2]

La primul Summit privind Siguranța IA (Bletchley 2023), declarația  a avertizat asupra "potențialului de vătămare gravă, chiar catastrofală" al IA, iar semnatarii s-au angajat să colaboreze pentru a se asigura că IA rămâne sigură.

Cu toate acestea, la Summitul de Acțiune privind IA (Paris 2025), siguranța a fost lăsată pe plan secund în favoarea intereselor economice. Profesorul Max Tegmark de la MIT a declarat că "aproape se încearca să se submineze Bletchley," considerând omiterea siguranței din declarație "o rețetă pentru dezastru."

Acum Summitul privind Impactul IA (Delhi, 19-20 februarie 2026) se apropie, cu participarea a unui număr și mai mare de reprezentanți ai corporațiilor, comparativ cu summitul de la Paris.

De la "Siguranță" la "Acțiune" la "Impact" - tendința este îngrijorătoare. Cu toate acestea, peste 100  de parlamentari britanici consideră necesară adoptarea de reglementări obligatorii pentru cele mai puternice sisteme IA iar doisprezece laureați Nobel și sute de experți cer guvernelor ”să ajungă la un acord internațional privind limitele de netrecut pentru IA — asigurându-se că acestea sunt operaționale și cu mecanisme solide de aplicare – până la sfârșitul anului 2026."

Summitul de la Delhi reprezintă un moment crucial pentru a da curs apelului acestora. Împreună putem schimba cursul!

Cererea noastră

Summiturile privind IA trebuie să ia din nou siguranța în serios. Facem apel la delegația României să pledeze public pentru următoarele priorități la viitorul Summit privind Impactul IA:

  1. Standarde de siguranță obligatorii. Autoreglementarea voluntară nu creează siguranță reală. Avem nevoie de reguli independente care să fie verificabile și aplicabile.
  2. Limite de netrecut. IA are nevoie de limite clare: Care sunt riscurile inacceptabile? Când trebuie oprită dezvoltarea? Astfel de limite pot fi impuse doar la nivel internațional.

Progresul tehnologic nu este un scop ce se atinge fără consecințe și este important să fie modelat în mod responsabil în interesul umanității.

Fiecare semnătură demonstrează că viitorul IA nu trebuie decis exclusiv de corporații. Marea majoritate a populației dorește mai multă protecție, iar noi dorim o participare democratică reală!

Care sunt limitele de netrecut pentru IA?

Limitele de netrecut interzic sistemele IA care prezintă un risc inacceptabil pentru noi toți, inclusiv sistemele care:

  • trec prin procese de auto-îmbunătățire necontrolată,
  • înșeală sistematic oamenii
  • permit utilizarea abuzivă catastrofală, cum ar fi dezvoltarea de arme biologice.

Cum ar putea fi implementat un acord internațional?

Antrenarea sistemelor avansate de IA necesită în prezent centre de date masive cu cipuri specializate. Această concentrare face reglementarea posibilă.

Un acord internațional ar putea fi construit pe trei piloni:

  1. Supraveghere internațională: Un nou organism internațional care verifică conformitatea cu standardele de siguranță în cooperare cu autorități naționale. Avertizorii de integritate sunt protejați.
  2. Transparența puterii de calcul: Procesele mari de antrenare sunt înregistrate și supravegheate. Cipurile de IA pot fi proiectate astfel încât utilizarea lor să fie trasabilă.
  3. Consecințe pentru încălcări: Statele convin asupra sancțiunilor comune împotriva actorilor care încalcă limitele de netrecut impuse și elaborează strategii de răspuns la criză.

Ce spun experții

"Atenuarea riscului de extincție cauzat de IA ar trebui să fie o prioritate globală, alături de alte riscuri la scară socială, cum ar fi pandemiile și războiul nuclear." - Declarația privind riscul IA, semnată de 3 dintre cei mai citați cercetători IA și de directorii generali ai companiilor de IA de frunte.

"Am lucrat în echipa de siguranță a OpenAI timp de patru ani și vă pot spune cu încredere: companiile de IA nu iau în serios suficient siguranța dumneavoastră și nu sunt pe drumul cel bun pentru a rezolva problemele critice de siguranță." - Steven Adler, fost lider al evaluărilor capabilităților periculoase la OpenAI.

"Subliniem: unele sisteme IA de astăzi demonstrează deja capacitatea și tendința de a submina eforturile de siguranță și control ale creatorilor lor." - Consensul cercetătorilor de vârf în siguranța IA, inclusiv Stuart Russell și Andrew Yao. Dialoguri Internaționale privind Siguranța IA, Shanghai 2025.

Despre noi

Această petiție este susținută de PauseAI, o mișcare civică internațională care militează pentru o mai mare siguranță și un control democratic al sistemelor puternice de IA. Website: pauseai.info

 

 

avatar of the starter
Raluca SpataruPetition StarterPauseAI Romania Country Lead, Lawyer, PhD student
Support now

3,889


The Decision Makers

Ilie Bolojan
Ilie Bolojan
Prim-Ministrul Romaniei
Ambrozie-Irineu Darău
Ambrozie-Irineu Darău
Ministrul Economiei, Digitalizării, Antreprenoriatului și Turismului
Petition updates