Samity o AI musia opäť riešiť bezpečnosť


Samity o AI musia opäť riešiť bezpečnosť
The issue
[Odkaz na medzinárodnú petíciu]
Umelá inteligencia (AI) zvýšila ľudskú produktivitu a priniesla pokrok v medicíne, no rýchly pokrok so sebou nesie riziká, ktoré presahujú všetky štátne hranice. Varovania popredných expertov [1, 2] sú jasné: iba prostredníctvom medzinárodnej spolupráce môže svet riešiť nebezpečenstvá siahajúce od zneužitia až po stratu kontroly.
Na prvom Samite o Bezpečnosti AI (Bletchley 2023), deklarácia varovala pred „potenciálom AI spôsobiť vážne, dokonca katastrofické škody" a signatári sa zaviazali spolupracovať na zaistení bezpečnosti AI.
Ale na Akčnom Samite o AI (Paríž 2025), bola bezpečnosť odsunutá na vedľajšiu koľaj ekonomickými záujmami. Profesor Max Tegmark z MIT povedal, „takmer to vyzeralo, akoby sa snažili zvrátiť Bletchley," a označil vynechanie bezpečnosti z deklarácie za „recept na katastrofu."
Teraz sa blíži Samit o Dopade AI (Dillí, 19.–20. februára 2026) s ešte väčším počtom zúčastnených lídrov technologických firiem ako v Paríži.
Od „Bezpečnosti" cez „Akciu" k „Dopadu" — tento trend je znepokojujúci. Ale dvanásti laureáti Nobelovej ceny a stovky expertov, vrátane bývalého predsedu Valného zhromaždenia OSN zo strednej Európy a spoluautorov európskeho AI Act, vyzývajú, aby „vlády dosiahli medzinárodnú dohodu o červených čiarach pre AI — zabezpečujúc ich operatívnosť s robustnými mechanizmami presadzovania — do konca r. 2026."
Samit v Dillí je kritickým momentom pre prijatie tejto výzvy. Spoločne môžeme zvrátiť kurz!
Naša požiadavka
Samity o AI sa musia opäť vážne zaoberať bezpečnosťou. Vyzývame delegáciu Slovenska, aby na nadchádzajúcom Samite o Dopade AI verejne presadzovala nasledujúce priority:
- Záväzné bezpečnostné štandardy. Dobrovoľná samoregulácia nevytvára skutočnú bezpečnosť. Potrebujeme nezávislé pravidlá, ktoré sú overiteľné a vymáhateľné.
- Červené čiary. AI potrebuje jasné hranice: Ktoré riziká sú neprijateľné? Kedy sa musí vývoj zastaviť? Takéto limity možno presadzovať len medzinárodne.
Technologický pokrok nie je samoúčelný, ale musí byť zodpovedne regulovaný v záujme ľudstva.
Každým podpisom ukazujeme: O budúcnosti AI nesmú rozhodovať len korporácie. Prevažná väčšina obyvateľstva chce väčšiu ochranu a chce skutočnú demokratickú participáciu!
Čo sú červené čiary pre AI?
Červené čiary zakazujú systémy AI, ktoré predstavujú neprijateľné riziko pre nás všetkých, vrátane systémov ktoré:
- sú schopné nekontrolovaného sebazdokonaľovania,
- systematicky klamú ľudí,
- alebo umožňujú katastrofické zneužitie, napríklad vývoj biologických zbraní.
Ako by sa medzinárodná dohoda mohla presadzovať?
Trénovanie pokročilých systémov AI v súčasnosti vyžaduje masívne dátové centrá so špecializovanými čipmi. Táto koncentrácia robí reguláciu vysoko realizovateľnou.
Medzinárodná dohoda by mohla stáť na troch pilieroch:
- Medzinárodný dohľad: Nový medzinárodný orgán overujúci dodržiavanie bezpečnostných štandardov v spolupráci s národnými inštitúciami. Oznamovatelia sú chránení.
- Transparentnosť výpočtového výkonu: Veľké tréningy sú registrované a pod dohľadom. AI čipy sa dajú vyrobiť tak, aby ich použitie bolo sledovateľné.
- Dôsledky za porušenia: Štáty sa dohodnú na spoločných sankciách voči aktérom, ktorí prekročia červené čiary a vypracujú stratégie pre krízovú reakciu.
Čo hovoria experti
„Zmiernenie rizika vyhynutia v dôsledku AI by malo byť globálnou prioritou spolu s inými celospoločenskými rizikami, ako sú pandémie a jadrová vojna." - Vyhlásenie o riziku AI, podpísané 3 najcitovanejšími vedcami v oblasti AI a generálnymi riaditeľmi popredných AI spoločností.
„Štyri roky som pracoval v bezpečnostnom tíme OpenAI a môžem vám s istotou povedať: AI spoločnosti neberú vašu bezpečnosť dostatočne vážne a nie sú na ceste k riešeniu kritických bezpečnostných problémov." - Steven Adler, bývalý vedúci hodnotenia nebezpečných schopností v OpenAI.
„Zdôrazňujeme: niektoré systémy AI už dnes prejavujú schopnosť a sklon podkopávať bezpečnostné a kontrolné úsilie svojich tvorcov." - Konsenzus popredných výskumníkov bezpečnosti AI, vrátane Stuarta Russella a Andrewa Yaa. Medzinárodné dialógy o bezpečnosti AI, Šanghaj 2025.
O autorovi
Petrov syn sa narodil niekoľko mesiacov po vydaní ChatGPT. Peter so znepokojením sledoval, ako stovky, potom tisíce vedcov v oblasti AI varovali pred katastrofickými a existenčnými rizikami vyplývajúcimi zo súčasných bezpečnostných praktík pre AI. Medzitým vedci aj generálni riaditelia tvrdili, že superinteligencia vznikne skôr, než jeho syn dosiahne dospelosť. Pred rokom si Peter uvedomil, že občianska spoločnosť je nevyhnutnou súčasťou bezpečného výsledku a začal dobrovoľnícky pôsobiť v PauseAI.
Túto petíciu podporuje PauseAI, medzinárodné hnutie zdola presadzujúce pozastavenie vývoja najnebezpečnejších systémov AI, kým nebudú zavedené robustné bezpečnostné opatrenia a demokratická účasť. Webová stránka: pauseai.info / pauseai.cz

3,887
The issue
[Odkaz na medzinárodnú petíciu]
Umelá inteligencia (AI) zvýšila ľudskú produktivitu a priniesla pokrok v medicíne, no rýchly pokrok so sebou nesie riziká, ktoré presahujú všetky štátne hranice. Varovania popredných expertov [1, 2] sú jasné: iba prostredníctvom medzinárodnej spolupráce môže svet riešiť nebezpečenstvá siahajúce od zneužitia až po stratu kontroly.
Na prvom Samite o Bezpečnosti AI (Bletchley 2023), deklarácia varovala pred „potenciálom AI spôsobiť vážne, dokonca katastrofické škody" a signatári sa zaviazali spolupracovať na zaistení bezpečnosti AI.
Ale na Akčnom Samite o AI (Paríž 2025), bola bezpečnosť odsunutá na vedľajšiu koľaj ekonomickými záujmami. Profesor Max Tegmark z MIT povedal, „takmer to vyzeralo, akoby sa snažili zvrátiť Bletchley," a označil vynechanie bezpečnosti z deklarácie za „recept na katastrofu."
Teraz sa blíži Samit o Dopade AI (Dillí, 19.–20. februára 2026) s ešte väčším počtom zúčastnených lídrov technologických firiem ako v Paríži.
Od „Bezpečnosti" cez „Akciu" k „Dopadu" — tento trend je znepokojujúci. Ale dvanásti laureáti Nobelovej ceny a stovky expertov, vrátane bývalého predsedu Valného zhromaždenia OSN zo strednej Európy a spoluautorov európskeho AI Act, vyzývajú, aby „vlády dosiahli medzinárodnú dohodu o červených čiarach pre AI — zabezpečujúc ich operatívnosť s robustnými mechanizmami presadzovania — do konca r. 2026."
Samit v Dillí je kritickým momentom pre prijatie tejto výzvy. Spoločne môžeme zvrátiť kurz!
Naša požiadavka
Samity o AI sa musia opäť vážne zaoberať bezpečnosťou. Vyzývame delegáciu Slovenska, aby na nadchádzajúcom Samite o Dopade AI verejne presadzovala nasledujúce priority:
- Záväzné bezpečnostné štandardy. Dobrovoľná samoregulácia nevytvára skutočnú bezpečnosť. Potrebujeme nezávislé pravidlá, ktoré sú overiteľné a vymáhateľné.
- Červené čiary. AI potrebuje jasné hranice: Ktoré riziká sú neprijateľné? Kedy sa musí vývoj zastaviť? Takéto limity možno presadzovať len medzinárodne.
Technologický pokrok nie je samoúčelný, ale musí byť zodpovedne regulovaný v záujme ľudstva.
Každým podpisom ukazujeme: O budúcnosti AI nesmú rozhodovať len korporácie. Prevažná väčšina obyvateľstva chce väčšiu ochranu a chce skutočnú demokratickú participáciu!
Čo sú červené čiary pre AI?
Červené čiary zakazujú systémy AI, ktoré predstavujú neprijateľné riziko pre nás všetkých, vrátane systémov ktoré:
- sú schopné nekontrolovaného sebazdokonaľovania,
- systematicky klamú ľudí,
- alebo umožňujú katastrofické zneužitie, napríklad vývoj biologických zbraní.
Ako by sa medzinárodná dohoda mohla presadzovať?
Trénovanie pokročilých systémov AI v súčasnosti vyžaduje masívne dátové centrá so špecializovanými čipmi. Táto koncentrácia robí reguláciu vysoko realizovateľnou.
Medzinárodná dohoda by mohla stáť na troch pilieroch:
- Medzinárodný dohľad: Nový medzinárodný orgán overujúci dodržiavanie bezpečnostných štandardov v spolupráci s národnými inštitúciami. Oznamovatelia sú chránení.
- Transparentnosť výpočtového výkonu: Veľké tréningy sú registrované a pod dohľadom. AI čipy sa dajú vyrobiť tak, aby ich použitie bolo sledovateľné.
- Dôsledky za porušenia: Štáty sa dohodnú na spoločných sankciách voči aktérom, ktorí prekročia červené čiary a vypracujú stratégie pre krízovú reakciu.
Čo hovoria experti
„Zmiernenie rizika vyhynutia v dôsledku AI by malo byť globálnou prioritou spolu s inými celospoločenskými rizikami, ako sú pandémie a jadrová vojna." - Vyhlásenie o riziku AI, podpísané 3 najcitovanejšími vedcami v oblasti AI a generálnymi riaditeľmi popredných AI spoločností.
„Štyri roky som pracoval v bezpečnostnom tíme OpenAI a môžem vám s istotou povedať: AI spoločnosti neberú vašu bezpečnosť dostatočne vážne a nie sú na ceste k riešeniu kritických bezpečnostných problémov." - Steven Adler, bývalý vedúci hodnotenia nebezpečných schopností v OpenAI.
„Zdôrazňujeme: niektoré systémy AI už dnes prejavujú schopnosť a sklon podkopávať bezpečnostné a kontrolné úsilie svojich tvorcov." - Konsenzus popredných výskumníkov bezpečnosti AI, vrátane Stuarta Russella a Andrewa Yaa. Medzinárodné dialógy o bezpečnosti AI, Šanghaj 2025.
O autorovi
Petrov syn sa narodil niekoľko mesiacov po vydaní ChatGPT. Peter so znepokojením sledoval, ako stovky, potom tisíce vedcov v oblasti AI varovali pred katastrofickými a existenčnými rizikami vyplývajúcimi zo súčasných bezpečnostných praktík pre AI. Medzitým vedci aj generálni riaditelia tvrdili, že superinteligencia vznikne skôr, než jeho syn dosiahne dospelosť. Pred rokom si Peter uvedomil, že občianska spoločnosť je nevyhnutnou súčasťou bezpečného výsledku a začal dobrovoľnícky pôsobiť v PauseAI.
Túto petíciu podporuje PauseAI, medzinárodné hnutie zdola presadzujúce pozastavenie vývoja najnebezpečnejších systémov AI, kým nebudú zavedené robustné bezpečnostné opatrenia a demokratická účasť. Webová stránka: pauseai.info / pauseai.cz

3,887
The Decision Makers
Share this petition
Petition created on 31 January 2026