AI-topconferenties moeten veiligheid weer serieus nemen


AI-topconferenties moeten veiligheid weer serieus nemen
The Issue
(for English, scroll down)
Het probleem
AI heeft de menselijke productiviteit verhoogd en de geneeskunde verder gebracht, maar de snelle vooruitgang brengt risico's met zich mee die alle nationale grenzen overstijgen. Waarschuwingen van vooraanstaande experts zijn duidelijk: alleen door internationale samenwerking kan de wereld de gevaren aanpakken, variërend van misbruik tot verlies van controle. [1, 2]
Tijdens de eerste AI Safety Summit (Bletchley 2023) waarschuwde de verklaring [3] voor het "potentieel van AI voor ernstige, zelfs catastrofale schade" en de ondertekenaars beloofden samen te werken om ervoor te zorgen dat AI veilig blijft.
Maar tijdens de AI Action Summit (Parijs 2025) werd veiligheid opzijgeschoven ten gunste van economische belangen. Professor Max Tegmark van MIT zei [4]: "Het voelde bijna alsof ze Bletchley ongedaan probeerden te maken", en noemde het weglaten van veiligheid in de verklaring "een recept voor een ramp" [5].
Nu nadert de AI Impact Summit (Delhi, 19-20 februari 2026), met nog meer CEO's dan in Parijs.
Van "Veiligheid" naar "Actie" naar "Impact" — de trend ziet er somber uit. Toch steunen meer dan 100 Britse parlementariërs bindende regelgeving voor de krachtigste AI-systemen [6], en roepen twaalf Nobelprijswinnaars en honderden experts regeringen op om "tegen eind 2026 een internationaal akkoord te bereiken over rode lijnen voor AI — zodat deze operationeel zijn, met robuuste handhavingsmechanismen." [7]
De top in Delhi is een cruciaal moment om gehoor te geven aan hun oproep. Samen kunnen we het tij keren!
Onze eis
AI-toppen moeten veiligheid weer serieus nemen, voordat het te laat is. We roepen de Nederlandse delegatie op om tijdens de aanstaande AI Impact Summit publiekelijk te pleiten voor de volgende prioriteiten:
- Bindende veiligheidsnormen. Vrijwillige zelfregulering creëert geen echte veiligheid. We hebben onafhankelijke regels nodig die controleerbaar en afdwingbaar zijn.
- Strengere regelgeving voor de toeleveringsketen. ASML zou zijn lithografiesystemen alleen mogen verkopen aan bedrijven waarvan de klanten kunnen aantonen dat ze zich aan die bindende veiligheidsnormen houden.
- Rode lijnen. AI heeft duidelijke grenzen nodig: welke risico's zijn onaanvaardbaar? Wanneer moet de ontwikkeling stoppen? Dergelijke grenzen kunnen alleen internationaal worden afgedwongen.
Technologische vooruitgang is geen doel op zich, maar moet op een verantwoorde manier worden vormgegeven in het belang van de mensheid.
Met uw handtekening zeggen wij: De toekomst van AI mag niet alleen door bedrijven worden bepaald. De overgrote meerderheid van de bevolking wil meer bescherming [8] en we willen echte democratische participatie!
Klik hier om in minder dan een minuut een e-mail naar de Nederlandse delegatie te sturen.
Wat zijn de rode lijnen voor AI?
Rode lijnen verbieden AI-systemen die een onaanvaardbaar risico vormen voor ons allemaal, inclusief systemen die:
- ongecontroleerde zelfverbetering ondergaan,
- systematisch mensen misleiden,
- of catastrofaal misbruik mogelijk maken, zoals de ontwikkeling van biologische wapens.
Hoe zou een internationale overeenkomst kunnen worden afgedwongen?
Het trainen van geavanceerde AI-systemen vereist momenteel enorme datacenters met gespecialiseerde chips. Deze concentratie maakt regulering zeer haalbaar.
Een internationale overeenkomst zou kunnen rusten op drie pijlers:
- Internationaal toezicht: Een nieuw internationaal orgaan controleert de naleving van veiligheidsnormen in samenwerking met nationale autoriteiten. Klokkenluiders worden beschermd.
- Transparantie van berekeningen: Grote trainingssessies worden geregistreerd en gecontroleerd. AI-chips kunnen zo ontworpen worden dat hun gebruik traceerbaar is.
- Gevolgen voor overtredingen: Staten komen overeen om gezamenlijke sancties op te leggen aan actoren die rode lijnen overschrijden en ontwikkelen strategieën voor crisisbeheersing.
Wat experts zeggen
"Het beperken van het risico op uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere maatschappelijke risico's zoals pandemieën en een nucleaire oorlog." — Verklaring over AI-risico's, ondertekend door de 3 meest geciteerde AI-wetenschappers en de CEO's van toonaangevende AI-bedrijven
"Ik heb vier jaar in het veiligheidsteam van OpenAI gewerkt en ik kan u met zekerheid zeggen: AI-bedrijven nemen uw veiligheid niet serieus genoeg en ze zijn niet bezig om cruciale veiligheidsproblemen op te lossen." — Steven Adler, voormalig hoofd van de afdeling Evaluaties van Gevaarlijke Capaciteiten bij OpenAI
"We benadrukken: sommige AI-systemen tonen vandaag de dag al de mogelijkheid en de neiging om de veiligheids- en controle-inspanningen van hun makers te ondermijnen." — Consensus van vooraanstaande AI-veiligheidsonderzoekers, waaronder Stuart Russell en Andrew Yao. Internationale Dialogen over AI-veiligheid, Shanghai 2025
Over ons
Deze petitie wordt ondersteund door PauseAI, een internationale grassrootsbeweging die pleit voor meer veiligheid en democratische controle over krachtige AI-systemen. Website: https://pauseai.info/
AI Summits Need to Take Safety Seriously Again
The Problem
AI has enhanced human productivity and advanced medicine, yet the rapid progress carries risks which transcend all national borders. Warnings from leading experts are clear: only through international cooperation can the world address dangers ranging from misuse to loss of control. [1, 2]
At the first AI Safety Summit (Bletchley 2023), the declaration [3] warned of AI's "potential for serious, even catastrophic, harm" and signatories resolved to work together to ensure AI remains safe.
But at the AI Action Summit (Paris 2025), safety was sidelined by economic interests. Professor Max Tegmark of MIT said [4] "it almost felt like they were trying to undo Bletchley," calling the declaration’s omission of safety "a recipe for disaster." [5]
Now the AI Impact Summit (Delhi, February 19-20, 2026) is approaching, with even more attending CEOs than in Paris.
"Safety" to "Action" to "Impact" — the trend looks grim. Yet 100+ UK parliamentarians support binding regulations on the most powerful AI systems [6], and twelve Nobel laureates and hundreds of experts call for "governments to reach an international agreement on red lines for AI — ensuring they are operational, with robust enforcement mechanisms — by the end of 2026."[7]
The Delhi summit is a critical moment to heed their call. Together we can reverse course!
Our Demand
AI summits need to take safety seriously again, before it’s too late. We call on the Dutch delegation to publicly advocate for the following priorities at the upcoming AI Impact Summit:
- Binding safety standards. Voluntary self-regulation does not create real safety. We need independent rules that are verifiable and enforceable.
- Stricter supply chain regulations. ASML should only be allowed to sell its lithography systems to companies whose customers prove to abide by those binding safety standards.
- Red lines. AI needs clear boundaries: Which risks are unacceptable? When must development be halted? Such limits can only be enforced internationally.
Technological progress is not an end in itself, but needs to be shaped responsibly in the interest of humanity.
With your signature we say: The future of AI must not be decided by corporations alone. The vast majority of the population wants more protection [8], and we want real democratic participation!
Click here to send an e-mail to the Dutch delegation in less than 1 minute.
What Are Red Lines for AI?
Red lines prohibit AI systems that pose an unacceptable risk to all of us, including systems that:
- undergo uncontrolled self-improvement,
- systematically deceive humans,
- or enable catastrophic misuse such as developing bioweapons.
How Could an International Agreement Be Enforced?
Training advanced AI systems currently requires massive data centers with specialized chips. This concentration makes regulation highly feasible.
An international agreement could rest on three pillars:
- International oversight: A new international body verifies compliance with safety standards in cooperation with national authorities. Whistleblowers are protected.
- Compute transparency: Large training runs are registered and supervised. AI chips can be designed so their use is traceable.
- Consequences for violations: States agree on joint sanctions against actors who cross red lines and develop strategies for crisis response.
What Experts Say
"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war." — Statement on AI Risk, signed by the 3 most cited AI scientists and the CEOs of leading AI companies
"I worked on OpenAI's safety team for four years, and I can tell you with confidence: AI companies aren't taking your safety seriously enough, and they aren't on track to solve critical safety problems." — Steven Adler, former OpenAI Dangerous Capability Evaluations Lead
"We emphasize: some AI systems today already demonstrate the capability and propensity to undermine their creators' safety and control efforts." — Consensus of leading AI safety researchers, including Stuart Russell and Andrew Yao. International Dialogues on AI Safety, Shanghai 2025
About Us
This petition is supported by PauseAI, an international grassroots movement advocating for greater safety and democratic control of powerful AI systems. Website: https://pauseai.info/

3,887
The Issue
(for English, scroll down)
Het probleem
AI heeft de menselijke productiviteit verhoogd en de geneeskunde verder gebracht, maar de snelle vooruitgang brengt risico's met zich mee die alle nationale grenzen overstijgen. Waarschuwingen van vooraanstaande experts zijn duidelijk: alleen door internationale samenwerking kan de wereld de gevaren aanpakken, variërend van misbruik tot verlies van controle. [1, 2]
Tijdens de eerste AI Safety Summit (Bletchley 2023) waarschuwde de verklaring [3] voor het "potentieel van AI voor ernstige, zelfs catastrofale schade" en de ondertekenaars beloofden samen te werken om ervoor te zorgen dat AI veilig blijft.
Maar tijdens de AI Action Summit (Parijs 2025) werd veiligheid opzijgeschoven ten gunste van economische belangen. Professor Max Tegmark van MIT zei [4]: "Het voelde bijna alsof ze Bletchley ongedaan probeerden te maken", en noemde het weglaten van veiligheid in de verklaring "een recept voor een ramp" [5].
Nu nadert de AI Impact Summit (Delhi, 19-20 februari 2026), met nog meer CEO's dan in Parijs.
Van "Veiligheid" naar "Actie" naar "Impact" — de trend ziet er somber uit. Toch steunen meer dan 100 Britse parlementariërs bindende regelgeving voor de krachtigste AI-systemen [6], en roepen twaalf Nobelprijswinnaars en honderden experts regeringen op om "tegen eind 2026 een internationaal akkoord te bereiken over rode lijnen voor AI — zodat deze operationeel zijn, met robuuste handhavingsmechanismen." [7]
De top in Delhi is een cruciaal moment om gehoor te geven aan hun oproep. Samen kunnen we het tij keren!
Onze eis
AI-toppen moeten veiligheid weer serieus nemen, voordat het te laat is. We roepen de Nederlandse delegatie op om tijdens de aanstaande AI Impact Summit publiekelijk te pleiten voor de volgende prioriteiten:
- Bindende veiligheidsnormen. Vrijwillige zelfregulering creëert geen echte veiligheid. We hebben onafhankelijke regels nodig die controleerbaar en afdwingbaar zijn.
- Strengere regelgeving voor de toeleveringsketen. ASML zou zijn lithografiesystemen alleen mogen verkopen aan bedrijven waarvan de klanten kunnen aantonen dat ze zich aan die bindende veiligheidsnormen houden.
- Rode lijnen. AI heeft duidelijke grenzen nodig: welke risico's zijn onaanvaardbaar? Wanneer moet de ontwikkeling stoppen? Dergelijke grenzen kunnen alleen internationaal worden afgedwongen.
Technologische vooruitgang is geen doel op zich, maar moet op een verantwoorde manier worden vormgegeven in het belang van de mensheid.
Met uw handtekening zeggen wij: De toekomst van AI mag niet alleen door bedrijven worden bepaald. De overgrote meerderheid van de bevolking wil meer bescherming [8] en we willen echte democratische participatie!
Klik hier om in minder dan een minuut een e-mail naar de Nederlandse delegatie te sturen.
Wat zijn de rode lijnen voor AI?
Rode lijnen verbieden AI-systemen die een onaanvaardbaar risico vormen voor ons allemaal, inclusief systemen die:
- ongecontroleerde zelfverbetering ondergaan,
- systematisch mensen misleiden,
- of catastrofaal misbruik mogelijk maken, zoals de ontwikkeling van biologische wapens.
Hoe zou een internationale overeenkomst kunnen worden afgedwongen?
Het trainen van geavanceerde AI-systemen vereist momenteel enorme datacenters met gespecialiseerde chips. Deze concentratie maakt regulering zeer haalbaar.
Een internationale overeenkomst zou kunnen rusten op drie pijlers:
- Internationaal toezicht: Een nieuw internationaal orgaan controleert de naleving van veiligheidsnormen in samenwerking met nationale autoriteiten. Klokkenluiders worden beschermd.
- Transparantie van berekeningen: Grote trainingssessies worden geregistreerd en gecontroleerd. AI-chips kunnen zo ontworpen worden dat hun gebruik traceerbaar is.
- Gevolgen voor overtredingen: Staten komen overeen om gezamenlijke sancties op te leggen aan actoren die rode lijnen overschrijden en ontwikkelen strategieën voor crisisbeheersing.
Wat experts zeggen
"Het beperken van het risico op uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere maatschappelijke risico's zoals pandemieën en een nucleaire oorlog." — Verklaring over AI-risico's, ondertekend door de 3 meest geciteerde AI-wetenschappers en de CEO's van toonaangevende AI-bedrijven
"Ik heb vier jaar in het veiligheidsteam van OpenAI gewerkt en ik kan u met zekerheid zeggen: AI-bedrijven nemen uw veiligheid niet serieus genoeg en ze zijn niet bezig om cruciale veiligheidsproblemen op te lossen." — Steven Adler, voormalig hoofd van de afdeling Evaluaties van Gevaarlijke Capaciteiten bij OpenAI
"We benadrukken: sommige AI-systemen tonen vandaag de dag al de mogelijkheid en de neiging om de veiligheids- en controle-inspanningen van hun makers te ondermijnen." — Consensus van vooraanstaande AI-veiligheidsonderzoekers, waaronder Stuart Russell en Andrew Yao. Internationale Dialogen over AI-veiligheid, Shanghai 2025
Over ons
Deze petitie wordt ondersteund door PauseAI, een internationale grassrootsbeweging die pleit voor meer veiligheid en democratische controle over krachtige AI-systemen. Website: https://pauseai.info/
AI Summits Need to Take Safety Seriously Again
The Problem
AI has enhanced human productivity and advanced medicine, yet the rapid progress carries risks which transcend all national borders. Warnings from leading experts are clear: only through international cooperation can the world address dangers ranging from misuse to loss of control. [1, 2]
At the first AI Safety Summit (Bletchley 2023), the declaration [3] warned of AI's "potential for serious, even catastrophic, harm" and signatories resolved to work together to ensure AI remains safe.
But at the AI Action Summit (Paris 2025), safety was sidelined by economic interests. Professor Max Tegmark of MIT said [4] "it almost felt like they were trying to undo Bletchley," calling the declaration’s omission of safety "a recipe for disaster." [5]
Now the AI Impact Summit (Delhi, February 19-20, 2026) is approaching, with even more attending CEOs than in Paris.
"Safety" to "Action" to "Impact" — the trend looks grim. Yet 100+ UK parliamentarians support binding regulations on the most powerful AI systems [6], and twelve Nobel laureates and hundreds of experts call for "governments to reach an international agreement on red lines for AI — ensuring they are operational, with robust enforcement mechanisms — by the end of 2026."[7]
The Delhi summit is a critical moment to heed their call. Together we can reverse course!
Our Demand
AI summits need to take safety seriously again, before it’s too late. We call on the Dutch delegation to publicly advocate for the following priorities at the upcoming AI Impact Summit:
- Binding safety standards. Voluntary self-regulation does not create real safety. We need independent rules that are verifiable and enforceable.
- Stricter supply chain regulations. ASML should only be allowed to sell its lithography systems to companies whose customers prove to abide by those binding safety standards.
- Red lines. AI needs clear boundaries: Which risks are unacceptable? When must development be halted? Such limits can only be enforced internationally.
Technological progress is not an end in itself, but needs to be shaped responsibly in the interest of humanity.
With your signature we say: The future of AI must not be decided by corporations alone. The vast majority of the population wants more protection [8], and we want real democratic participation!
Click here to send an e-mail to the Dutch delegation in less than 1 minute.
What Are Red Lines for AI?
Red lines prohibit AI systems that pose an unacceptable risk to all of us, including systems that:
- undergo uncontrolled self-improvement,
- systematically deceive humans,
- or enable catastrophic misuse such as developing bioweapons.
How Could an International Agreement Be Enforced?
Training advanced AI systems currently requires massive data centers with specialized chips. This concentration makes regulation highly feasible.
An international agreement could rest on three pillars:
- International oversight: A new international body verifies compliance with safety standards in cooperation with national authorities. Whistleblowers are protected.
- Compute transparency: Large training runs are registered and supervised. AI chips can be designed so their use is traceable.
- Consequences for violations: States agree on joint sanctions against actors who cross red lines and develop strategies for crisis response.
What Experts Say
"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war." — Statement on AI Risk, signed by the 3 most cited AI scientists and the CEOs of leading AI companies
"I worked on OpenAI's safety team for four years, and I can tell you with confidence: AI companies aren't taking your safety seriously enough, and they aren't on track to solve critical safety problems." — Steven Adler, former OpenAI Dangerous Capability Evaluations Lead
"We emphasize: some AI systems today already demonstrate the capability and propensity to undermine their creators' safety and control efforts." — Consensus of leading AI safety researchers, including Stuart Russell and Andrew Yao. International Dialogues on AI Safety, Shanghai 2025
About Us
This petition is supported by PauseAI, an international grassroots movement advocating for greater safety and democratic control of powerful AI systems. Website: https://pauseai.info/

3,887
Share this petition
Petition created on February 4, 2026