Indický AI summit musí řešit bezpečnost


Indický AI summit musí řešit bezpečnost
The Issue
Vlády a mezinárodní organizace by se měly zaměřit na bezpečný vývoj umělé inteligence
Umělá inteligence (AI) zvýšila lidskou produktivitu a posunula vpřed obory jako je např. medicína či programování. Tento rychlý pokrok však s sebou nese rizika, která překračují hranice států vyvíjejících AI. Vznikají sociální sítě, kde spolu samostatně komunikují tisíce AI botů. Varování předních odborníků jsou jasná: nebezpečí sahající od zneužití až po ztrátu kontroly lze řešit pouze prostřednictvím mezinárodní spolupráce.
Na prvním Summitu o bezpečnosti AI (Bletchley 2023) deklarace varovala před „potenciálem k vážným, až katastrofickým škodám“ a signatáři se zavázali spolupracovat na zajištění bezpečnosti AI.
Na summitu AI Action (Paříž 2025) však bezpečnost ustoupila ekonomickým zájmům. Profesor Max Tegmark z MIT prohlásil: „Skoro to působilo, jako by se snažili vymazat odkaz Bletchley,“ a vynechání bezpečnosti v deklaraci označil za „recept na katastrofu.“
Nyní se blíží summit AI Impact (Dillí, 19.–20. února 2026), na který míří ještě více generálních ředitelů než do Paříže.
Od „Bezpečnosti“ přes „Akci“ až po „Dopad“ – tento trend nevěstí nic dobrého. Přesto více než 100 britských zákonodárců podporuje závazné regulace nejvýkonnějších systémů AI a dvanáct nositelů Nobelovy ceny spolu se stovkami odborníků vyzývá, aby „vlády dosáhly mezinárodní dohody o červených liniích pro AI – s jistotou jejich funkčnosti a robustními vymáhacími mechanismy – do konce roku 2026.“
Summit v Dillí je klíčovým momentem pro vyslyšení jejich výzvy. Společně můžeme změnit kurz!
Náš požadavek
Summity o AI musí opět brát bezpečnost vážně. Vyzýváme Českou delegaci, aby na nadcházejícím summitu AI Impact veřejně prosazovala následující priority:
- Závazné bezpečnostní standardy. Dobrovolná samoregulace nevytváří skutečnou bezpečnost. Potřebujeme nezávislá pravidla, která jsou ověřitelná a vymahatelná.
- Červené linie. AI potřebuje jasné hranice: Která rizika jsou nepřijatelná? Kdy musí být vývoj zastaven? Takové limity lze vymáhat pouze mezinárodně.
- Technologický pokrok není samoúčelný, ale musí být utvářen zodpovědně v zájmu lidstva.
Každý podpis dokazuje: O budoucnosti AI nesmí rozhodovat pouze korporace. Drtivá většina populace chce větší ochranu a my požadujeme skutečnou demokratickou účast!
Co jsou červené linie pro AI?
Červené linie zakazují systémy AI, které představují nepřijatelné riziko pro nás všechny, včetně systémů, které:
procházejí nekontrolovaným sebezdokonalováním,
systematicky klamou lidi,
nebo umožňují katastrofické zneužití, například vývoj biologických zbraní.
Jak by mohla být mezinárodní dohoda vymáhána?
Trénování pokročilých systémů AI v současnosti vyžaduje obrovská datová centra se specializovanými čipy. Díky této koncentraci je regulace vysoce proveditelná.
Mezinárodní dohoda by měla stát na třech pilířích:
Mezinárodní dohled: Nový mezinárodní orgán ověřuje dodržování bezpečnostních norem ve spolupráci s národními úřady. Whistlebloweři jsou chráněni.
Transparentnost výpočetního výkonu: Velké tréninkové běhy jsou registrovány a pod dohledem. Čipy pro AI lze navrhnout tak, aby bylo jejich použití sledovatelné.
Důsledky porušení: Státy se dohodnou na společných sankcích proti aktérům, kteří překročí červené linie, a vypracují strategie pro krizové reakce.
Co říkají odborníci:
„Zmírnění rizika vyhynutí v důsledku AI by mělo být globální prioritou vedle jiných rizik celospolečenského rozsahu, jako jsou pandemie a jaderná válka.“ — Prohlášení o rizicích AI (Statement on AI Risk), podepsané třemi nejcitovanějšími vědci v oblasti AI a řediteli předních AI společností
„Pracoval jsem čtyři roky v bezpečnostním týmu OpenAI a mohu vám s jistotou říci: AI společnosti neberou vaši bezpečnost dostatečně vážně a nejsou na cestě k vyřešení kritických bezpečnostních problémů.“ — Steven Adler, bývalý vedoucí pro hodnocení nebezpečných schopností v OpenAI
„Zdůrazňujeme: některé systémy AI již dnes prokazují schopnost a sklon podkopávat snahy svých tvůrců o bezpečnost a kontrolu.“ — Konsensus předních výzkumníků bezpečnosti AI, včetně Stuarta Russella a Andrewa Yao. Mezinárodní dialogy o bezpečnosti AI, Šanghaj 2025
Tuto petici podporuje PauseAI, mezinárodní hnutí prosazující pozastavení vývoje nejnebezpečnějších systémů AI, dokud nebudou zavedena robustní bezpečnostní opatření a demokratická účast.
Nezapomeňte zkontrolovat svůj email a ověřit svůj podpis!
Webová stránka: pauseai.cz
Mobil: +420 792 826 722
YouTube: youtube.com/@pauseAICZ
Instagram: https://www.instagram.com/pause_ai_czech_republic/
Whatsapp: https://chat.whatsapp.com/KLLs4LhnUvdFSOjm9KKffJ
Discord: https://discord.gg/gEKnyj8yhG

3,887
The Issue
Vlády a mezinárodní organizace by se měly zaměřit na bezpečný vývoj umělé inteligence
Umělá inteligence (AI) zvýšila lidskou produktivitu a posunula vpřed obory jako je např. medicína či programování. Tento rychlý pokrok však s sebou nese rizika, která překračují hranice států vyvíjejících AI. Vznikají sociální sítě, kde spolu samostatně komunikují tisíce AI botů. Varování předních odborníků jsou jasná: nebezpečí sahající od zneužití až po ztrátu kontroly lze řešit pouze prostřednictvím mezinárodní spolupráce.
Na prvním Summitu o bezpečnosti AI (Bletchley 2023) deklarace varovala před „potenciálem k vážným, až katastrofickým škodám“ a signatáři se zavázali spolupracovat na zajištění bezpečnosti AI.
Na summitu AI Action (Paříž 2025) však bezpečnost ustoupila ekonomickým zájmům. Profesor Max Tegmark z MIT prohlásil: „Skoro to působilo, jako by se snažili vymazat odkaz Bletchley,“ a vynechání bezpečnosti v deklaraci označil za „recept na katastrofu.“
Nyní se blíží summit AI Impact (Dillí, 19.–20. února 2026), na který míří ještě více generálních ředitelů než do Paříže.
Od „Bezpečnosti“ přes „Akci“ až po „Dopad“ – tento trend nevěstí nic dobrého. Přesto více než 100 britských zákonodárců podporuje závazné regulace nejvýkonnějších systémů AI a dvanáct nositelů Nobelovy ceny spolu se stovkami odborníků vyzývá, aby „vlády dosáhly mezinárodní dohody o červených liniích pro AI – s jistotou jejich funkčnosti a robustními vymáhacími mechanismy – do konce roku 2026.“
Summit v Dillí je klíčovým momentem pro vyslyšení jejich výzvy. Společně můžeme změnit kurz!
Náš požadavek
Summity o AI musí opět brát bezpečnost vážně. Vyzýváme Českou delegaci, aby na nadcházejícím summitu AI Impact veřejně prosazovala následující priority:
- Závazné bezpečnostní standardy. Dobrovolná samoregulace nevytváří skutečnou bezpečnost. Potřebujeme nezávislá pravidla, která jsou ověřitelná a vymahatelná.
- Červené linie. AI potřebuje jasné hranice: Která rizika jsou nepřijatelná? Kdy musí být vývoj zastaven? Takové limity lze vymáhat pouze mezinárodně.
- Technologický pokrok není samoúčelný, ale musí být utvářen zodpovědně v zájmu lidstva.
Každý podpis dokazuje: O budoucnosti AI nesmí rozhodovat pouze korporace. Drtivá většina populace chce větší ochranu a my požadujeme skutečnou demokratickou účast!
Co jsou červené linie pro AI?
Červené linie zakazují systémy AI, které představují nepřijatelné riziko pro nás všechny, včetně systémů, které:
procházejí nekontrolovaným sebezdokonalováním,
systematicky klamou lidi,
nebo umožňují katastrofické zneužití, například vývoj biologických zbraní.
Jak by mohla být mezinárodní dohoda vymáhána?
Trénování pokročilých systémů AI v současnosti vyžaduje obrovská datová centra se specializovanými čipy. Díky této koncentraci je regulace vysoce proveditelná.
Mezinárodní dohoda by měla stát na třech pilířích:
Mezinárodní dohled: Nový mezinárodní orgán ověřuje dodržování bezpečnostních norem ve spolupráci s národními úřady. Whistlebloweři jsou chráněni.
Transparentnost výpočetního výkonu: Velké tréninkové běhy jsou registrovány a pod dohledem. Čipy pro AI lze navrhnout tak, aby bylo jejich použití sledovatelné.
Důsledky porušení: Státy se dohodnou na společných sankcích proti aktérům, kteří překročí červené linie, a vypracují strategie pro krizové reakce.
Co říkají odborníci:
„Zmírnění rizika vyhynutí v důsledku AI by mělo být globální prioritou vedle jiných rizik celospolečenského rozsahu, jako jsou pandemie a jaderná válka.“ — Prohlášení o rizicích AI (Statement on AI Risk), podepsané třemi nejcitovanějšími vědci v oblasti AI a řediteli předních AI společností
„Pracoval jsem čtyři roky v bezpečnostním týmu OpenAI a mohu vám s jistotou říci: AI společnosti neberou vaši bezpečnost dostatečně vážně a nejsou na cestě k vyřešení kritických bezpečnostních problémů.“ — Steven Adler, bývalý vedoucí pro hodnocení nebezpečných schopností v OpenAI
„Zdůrazňujeme: některé systémy AI již dnes prokazují schopnost a sklon podkopávat snahy svých tvůrců o bezpečnost a kontrolu.“ — Konsensus předních výzkumníků bezpečnosti AI, včetně Stuarta Russella a Andrewa Yao. Mezinárodní dialogy o bezpečnosti AI, Šanghaj 2025
Tuto petici podporuje PauseAI, mezinárodní hnutí prosazující pozastavení vývoje nejnebezpečnějších systémů AI, dokud nebudou zavedena robustní bezpečnostní opatření a demokratická účast.
Nezapomeňte zkontrolovat svůj email a ověřit svůj podpis!
Webová stránka: pauseai.cz
Mobil: +420 792 826 722
YouTube: youtube.com/@pauseAICZ
Instagram: https://www.instagram.com/pause_ai_czech_republic/
Whatsapp: https://chat.whatsapp.com/KLLs4LhnUvdFSOjm9KKffJ
Discord: https://discord.gg/gEKnyj8yhG

3,887
The Decision Makers
Share this petition
Petition created on February 1, 2026