AI-toppmötet måste ta AI-säkerhet på allvar igen!


AI-toppmötet måste ta AI-säkerhet på allvar igen!
The Issue
Problemet
AI har förbättrat mänsklig produktivitet och framsteg inom medicin, men den snabba utvecklingen medför risker som sträcker sig bortom alla nationella gränser. Varningar från ledande experter är tydliga: endast genom internationellt samarbete kan världen hantera faror som sträcker sig från missbruk till kontrollförlust. [1, 2]
På det första AI-säkerhets toppmötet (Bletchley 2023) varnade deklarationen för AI:s "potential för allvarlig, till och med katastrofal, skada" och underskrivarna förband sig att arbeta tillsammans för att säkerställa att AI förblir säker.
Men på AI Action Summit (Paris 2025) förpassades säkerheten till förmån för ekonomiska intressen. Professor Max Tegmark från MIT sa "det kändes nästan som om de försökte ogiltigförklara Bletchley", och kallade utelämnandet av säkerhet i deklarationen "ett recept för katastrof".
Nu närmar sig AI Impact Summit (Delhi, 19-20 februari 2026) med ett ännu större deltagande än i Paris.
Från "Säkerhet" till "Handling" till "Påverkan" — trenden ser mörk ut. Ändå stöder över 100 brittiska parlamentsledamöter bindande regleringar för de mest kraftfulla AI-systemen, och tolv Nobelpristagare och hundratals experter uppmanar "regeringar att nå en internationell överenskommelse om gränser för AI — som säkerställer att de är verksamma, med robusta verkställande mekanismer — innan slutet av 2026."
Toppmötet i Delhi är en kritisk tidpunkt att följa deras uppmaning. Tillsammans kan vi vända trenden!
Våra krav
AI-toppmöten måste återigen ta säkerhet på allvar. Vi uppmanar Sveriges delegation att offentligt förespråka följande prioriteringar vid det kommande AI Impact Summit:
- Bindande säkerhetsstandarder. Frivillig självreglering skapar inte riktig säkerhet. Vi behöver oberoende regler som är verifierbara och verkställbara.
- Röda linjer. AI behöver tydliga gränser: Vilka risker är oacceptabla? När måste utvecklingen stoppas? Sådana gränser kan endast verkställas internationellt.
Teknologisk framsteg är inte ett mål i sig, utan måste formas ansvarsfullt i människors intresse.
Varje underskrift visar: AI:s framtid får inte bestämmas av företag ensamma. Den stora majoriteten av befolkningen vill ha mer skydd, och vi vill ha verklig demokratisk delaktighet!
Vad är gränser för AI?
Röda linjer förbjuder AI-system som utgör en oacceptabel risk för oss alla, inklusive system som:
genomgår okontrollerad självförbättring,
systematiskt lurar människor,
eller möjliggör katastrofalt missbruk som utveckling av biologiska vapen.
Hur kan ett internationellt avtal genomföras?
Träning av avancerade AI-system kräver för närvarande stora datacenter med specialiserade chip. Denna koncentration gör reglering mycket genomförbar.
En internationell överenskommelse kunde vila på tre pelare:
- Internationell tillsyn: En ny internationell myndighet verifierar efterlevnaden av säkerhetsstandarder i samarbete med nationella myndigheter. Visselblåsare skyddas.
- Beräkning Transparens: Storskaliga träningskörningar registreras och övervakas. AI-chip kan designas så att deras användning är spårbar.
- Konsekvenser vid överträdelser: Länder kommer överens om gemensamma sanktioner mot aktörer som överskrider gränser och utvecklar strategier för krishantering.
Vad säger experterna?
"Att mildra risken för utrotning från AI bör vara en global prioritet tillsammans med andra samhällsomfattande risker som pandemier och kärnvapenkrig." — Utlåtande om AI-risker, undertecknat av de 3 mest citerade AI-forskarna och företagsledare för ledande AI-företag
"Jag arbetade med OpenAI:s säkerhetsteam i fyra år, och jag kan med säkerhet säga: AI-företag tar inte er säkerhet på tillräckligt allvar, och de är inte på väg att lösa kritiska säkerhetsproblem." — Steven Adler, före detta ledare för OpenAI Dangerous Capability Evaluations
"Vi betonar: vissa AI-system idag visar redan förmåga och benägenhet att underminera sina skapares säkerhets- och kontrollinsatser." — Konsensus bland ledande AI-säkerhetsforskare, inklusive Stuart Russell och Andrew Yao. Internationella dialoger om AI-säkerhet, Shanghai 2025
Om mig
Jag kom först i kontakt med AI 2019 och har under flera år haft en optimistisk syn på utvecklingen. 2019 trodde många experter inom AI att vi inte skulle ha kraftfulla AI-system före 2040, vi skulle ha tid att lösa de risker AI medför. När min dotter föddes 2024 fördjupade jag mig i AI-utvecklingen. Då märkte jag två saker: Experter varnar för att utvecklingen går snabbare än väntat, och det saknas kunskap om hur vi säkerställer att AI gynnar oss. Detta fick mig att agera och 2025 gick jag med i PauseAI. Jag tror att fler av oss behöver engagera oss i detta för att säkerställa att vi alla, och framförallt våra barn, får en bra och värdig framtid.
Denna namninsamling stöds av PauseAI, en internationell gräsrotsrörelse som förespråkar en paus i utvecklingen av de farligaste AI-systemen tills pålitliga säkerhetsåtgärder och demokratisk medverkan är på plats.
Hemsida: pauseai.se

3,889
The Issue
Problemet
AI har förbättrat mänsklig produktivitet och framsteg inom medicin, men den snabba utvecklingen medför risker som sträcker sig bortom alla nationella gränser. Varningar från ledande experter är tydliga: endast genom internationellt samarbete kan världen hantera faror som sträcker sig från missbruk till kontrollförlust. [1, 2]
På det första AI-säkerhets toppmötet (Bletchley 2023) varnade deklarationen för AI:s "potential för allvarlig, till och med katastrofal, skada" och underskrivarna förband sig att arbeta tillsammans för att säkerställa att AI förblir säker.
Men på AI Action Summit (Paris 2025) förpassades säkerheten till förmån för ekonomiska intressen. Professor Max Tegmark från MIT sa "det kändes nästan som om de försökte ogiltigförklara Bletchley", och kallade utelämnandet av säkerhet i deklarationen "ett recept för katastrof".
Nu närmar sig AI Impact Summit (Delhi, 19-20 februari 2026) med ett ännu större deltagande än i Paris.
Från "Säkerhet" till "Handling" till "Påverkan" — trenden ser mörk ut. Ändå stöder över 100 brittiska parlamentsledamöter bindande regleringar för de mest kraftfulla AI-systemen, och tolv Nobelpristagare och hundratals experter uppmanar "regeringar att nå en internationell överenskommelse om gränser för AI — som säkerställer att de är verksamma, med robusta verkställande mekanismer — innan slutet av 2026."
Toppmötet i Delhi är en kritisk tidpunkt att följa deras uppmaning. Tillsammans kan vi vända trenden!
Våra krav
AI-toppmöten måste återigen ta säkerhet på allvar. Vi uppmanar Sveriges delegation att offentligt förespråka följande prioriteringar vid det kommande AI Impact Summit:
- Bindande säkerhetsstandarder. Frivillig självreglering skapar inte riktig säkerhet. Vi behöver oberoende regler som är verifierbara och verkställbara.
- Röda linjer. AI behöver tydliga gränser: Vilka risker är oacceptabla? När måste utvecklingen stoppas? Sådana gränser kan endast verkställas internationellt.
Teknologisk framsteg är inte ett mål i sig, utan måste formas ansvarsfullt i människors intresse.
Varje underskrift visar: AI:s framtid får inte bestämmas av företag ensamma. Den stora majoriteten av befolkningen vill ha mer skydd, och vi vill ha verklig demokratisk delaktighet!
Vad är gränser för AI?
Röda linjer förbjuder AI-system som utgör en oacceptabel risk för oss alla, inklusive system som:
genomgår okontrollerad självförbättring,
systematiskt lurar människor,
eller möjliggör katastrofalt missbruk som utveckling av biologiska vapen.
Hur kan ett internationellt avtal genomföras?
Träning av avancerade AI-system kräver för närvarande stora datacenter med specialiserade chip. Denna koncentration gör reglering mycket genomförbar.
En internationell överenskommelse kunde vila på tre pelare:
- Internationell tillsyn: En ny internationell myndighet verifierar efterlevnaden av säkerhetsstandarder i samarbete med nationella myndigheter. Visselblåsare skyddas.
- Beräkning Transparens: Storskaliga träningskörningar registreras och övervakas. AI-chip kan designas så att deras användning är spårbar.
- Konsekvenser vid överträdelser: Länder kommer överens om gemensamma sanktioner mot aktörer som överskrider gränser och utvecklar strategier för krishantering.
Vad säger experterna?
"Att mildra risken för utrotning från AI bör vara en global prioritet tillsammans med andra samhällsomfattande risker som pandemier och kärnvapenkrig." — Utlåtande om AI-risker, undertecknat av de 3 mest citerade AI-forskarna och företagsledare för ledande AI-företag
"Jag arbetade med OpenAI:s säkerhetsteam i fyra år, och jag kan med säkerhet säga: AI-företag tar inte er säkerhet på tillräckligt allvar, och de är inte på väg att lösa kritiska säkerhetsproblem." — Steven Adler, före detta ledare för OpenAI Dangerous Capability Evaluations
"Vi betonar: vissa AI-system idag visar redan förmåga och benägenhet att underminera sina skapares säkerhets- och kontrollinsatser." — Konsensus bland ledande AI-säkerhetsforskare, inklusive Stuart Russell och Andrew Yao. Internationella dialoger om AI-säkerhet, Shanghai 2025
Om mig
Jag kom först i kontakt med AI 2019 och har under flera år haft en optimistisk syn på utvecklingen. 2019 trodde många experter inom AI att vi inte skulle ha kraftfulla AI-system före 2040, vi skulle ha tid att lösa de risker AI medför. När min dotter föddes 2024 fördjupade jag mig i AI-utvecklingen. Då märkte jag två saker: Experter varnar för att utvecklingen går snabbare än väntat, och det saknas kunskap om hur vi säkerställer att AI gynnar oss. Detta fick mig att agera och 2025 gick jag med i PauseAI. Jag tror att fler av oss behöver engagera oss i detta för att säkerställa att vi alla, och framförallt våra barn, får en bra och värdig framtid.
Denna namninsamling stöds av PauseAI, en internationell gräsrotsrörelse som förespråkar en paus i utvecklingen av de farligaste AI-systemen tills pålitliga säkerhetsåtgärder och demokratisk medverkan är på plats.
Hemsida: pauseai.se

3,889
Share this petition
Petition created on January 31, 2026