KI-Gipfel: Deutschland muss für Sicherheit eintreten!

Aktuelle Unterzeichner*innen:
Monika Varga und 19 andere Personen haben kürzlich unterschrieben.

Das Problem

[international link]

KI steigert Produktivität und treibt medizinischen Fortschritt voran, doch die rasante Entwicklung birgt auch große Risiken, die über alle Ländergrenzen hinaus wirken. Warnungen weltweit führender Experten machen deutlich: Nur durch internationale Zusammenarbeit bekommt die Welt Gefahren von Missbrauch bis Kontrollverlust in den Griff. [1, 2]

Beim ersten AI Safety Summit (Bletchley 2023) warnte die Erklärung vor dem „Potenzial für schwerwiegende, sogar katastrophale Schäden“, und die Unterzeichner beschlossen, gemeinsam sichere KI zu gewährleisten.

Doch beim AI Action Summit (Paris 2025) verschwand Sicherheit hinter Wirtschaftsinteressen. Professor Max Tegmark vom MIT sagte, „es fühlte sich fast so an, als würde man versuchen, Bletchley rückgängig zu machen,“ und nannte das Fehlen von Sicherheit in der Erklärung „ein Rezept für eine Katastrophe.“

Nun steht der AI Impact Summit (Delhi, 19.-20. Februar 2026) bevor, mit noch mehr teilnehmenden CEOs als in Paris.

Von „Safety“ zu „Action“ zu „Impact“: Sicherheit verschwindet aus dem Namen. Doch über 100 britische Parlamentarier unterstützen verbindliche Regulierungen für die fortgeschrittensten KI-Systeme, und zwölf Nobelpreisträger und hunderte Experten fordern, dass „bis Ende 2026 ein internationales Abkommen in Kraft treten soll, welches rote Linien für KI festlegt und deren Durchsetzung sicherstellt“.

Der Gipfel in Delhi ist ein entscheidender Moment, diesen Aufrufen zu folgen. Gemeinsam können wir den Kurs ändern!

Unsere Forderung

KI-Gipfel müssen Sicherheit wieder ernst nehmen. Wir fordern die deutsche Delegation auf, sich beim bevorstehenden AI Impact Summit öffentlich für die folgenden Prioritäten auszusprechen:

1. Verbindliche Sicherheitsstandards. Freiwillige Selbstregulierung schafft keine echte Sicherheit. Wir brauchen unabhängige Regeln, die überprüfbar und durchsetzbar sind.
2. Rote Linien. KI braucht klare Grenzen: Welche Risiken sind unvertretbar? Wann muss die Entwicklung gestoppt werden? Solche Schranken können nur international durchgesetzt werden.

Technischer Fortschritt ist kein Selbstzweck, sondern muss verantwortungsvoll im Interesse der Menschheit gestaltet sein.

Jede Unterschrift zeigt: Die Zukunft der KI darf nicht von Konzernen allein entschieden werden. Die meisten Deutschen wollen mehr Schutz, und wir wollen echte demokratische Teilhabe!

Was sind rote Linien für KI?

Rote Linien verbieten KI-Systeme, die ein unannehmbares Risiko für uns alle bedeuten würden. Darunter fallen Systeme, die: 

- sich unkontrolliert selbst verbessern, 
- Menschen systematisch täuschen, 
- oder katastrophalen Missbrauch wie die Entwicklung von Biowaffen zulassen.

Wie könnte ein internationales Abkommen durchgesetzt werden?

Das Training fortschrittlicher KI-Systeme erfordert heute riesige Rechenzentren mit spezialisierten Computerchips. Diese Konzentration macht eine Regulierung gut umsetzbar.

Ein internationales Abkommen könnte auf drei Säulen basieren:

1. Internationale Aufsicht: Eine neue internationale Behörde überprüft die Einhaltung von Sicherheitsstandards in Zusammenarbeit mit nationalen Behörden. Whistleblower werden geschützt.
2. Rechenleistung sichtbar machen: Große Trainingsläufe werden registriert und beaufsichtigt. KI-Chips können technisch so gestaltet werden, dass ihre Nutzung nachvollziehbar wird.
3. Konsequenzen bei Verstößen: Staaten beschließen gemeinsame Sanktionen gegen Akteure, die rote Linien überschreiten, und entwickeln Strategien für den Umgang mit Krisen.

Was Experten sagen

„Die Minderung des Risikos eines Aussterbens durch KI sollte eine globale Priorität sein, gleichrangig mit anderen Risiken gesamtgesellschaftlichen Ausmaßes wie Pandemien und Atomkrieg.“ — Statement on AI Risk, unterzeichnet von den drei meistzitierten KI-Wissenschaftlern (Geoffrey Hinton, Yoshua Bengio, Ilya Sutskever) und den CEOs führender KI-Unternehmen

„Ich habe vier Jahre im Sicherheitsteam von OpenAI gearbeitet und kann Ihnen mit Gewissheit sagen: KI-Unternehmen nehmen Ihre Sicherheit nicht ernst genug, und sie sind nicht auf Kurs, kritische Sicherheitsprobleme zu lösen.“ — Steven Adler, ehemaliger Leiter der Dangerous Capability Evaluations bei OpenAI

„Wir betonen: Einige KI-Systeme zeigen bereits heute die Fähigkeit und Neigung, die Sicherheits- und Kontrollbemühungen ihrer Entwickler zu untergraben.“  
Konsens führender KI-Sicherheitsforscher, darunter Stuart Russell und Andrew Yao, International Dialogues on AI Safety, Shanghai 2025

Über uns

Diese Petition wird unterstützt von PauseAI, einer internationalen Bürgerbewegung, die sich für mehr Sicherheit und demokratische Kontrolle von leistungsfähigen KI-Systemen einsetzt. Webseite: https://www.pause-ai.de/

 

avatar of the starter
PauseAI GlobalPetitionsstarter*in

3.887

Aktuelle Unterzeichner*innen:
Monika Varga und 19 andere Personen haben kürzlich unterschrieben.

Das Problem

[international link]

KI steigert Produktivität und treibt medizinischen Fortschritt voran, doch die rasante Entwicklung birgt auch große Risiken, die über alle Ländergrenzen hinaus wirken. Warnungen weltweit führender Experten machen deutlich: Nur durch internationale Zusammenarbeit bekommt die Welt Gefahren von Missbrauch bis Kontrollverlust in den Griff. [1, 2]

Beim ersten AI Safety Summit (Bletchley 2023) warnte die Erklärung vor dem „Potenzial für schwerwiegende, sogar katastrophale Schäden“, und die Unterzeichner beschlossen, gemeinsam sichere KI zu gewährleisten.

Doch beim AI Action Summit (Paris 2025) verschwand Sicherheit hinter Wirtschaftsinteressen. Professor Max Tegmark vom MIT sagte, „es fühlte sich fast so an, als würde man versuchen, Bletchley rückgängig zu machen,“ und nannte das Fehlen von Sicherheit in der Erklärung „ein Rezept für eine Katastrophe.“

Nun steht der AI Impact Summit (Delhi, 19.-20. Februar 2026) bevor, mit noch mehr teilnehmenden CEOs als in Paris.

Von „Safety“ zu „Action“ zu „Impact“: Sicherheit verschwindet aus dem Namen. Doch über 100 britische Parlamentarier unterstützen verbindliche Regulierungen für die fortgeschrittensten KI-Systeme, und zwölf Nobelpreisträger und hunderte Experten fordern, dass „bis Ende 2026 ein internationales Abkommen in Kraft treten soll, welches rote Linien für KI festlegt und deren Durchsetzung sicherstellt“.

Der Gipfel in Delhi ist ein entscheidender Moment, diesen Aufrufen zu folgen. Gemeinsam können wir den Kurs ändern!

Unsere Forderung

KI-Gipfel müssen Sicherheit wieder ernst nehmen. Wir fordern die deutsche Delegation auf, sich beim bevorstehenden AI Impact Summit öffentlich für die folgenden Prioritäten auszusprechen:

1. Verbindliche Sicherheitsstandards. Freiwillige Selbstregulierung schafft keine echte Sicherheit. Wir brauchen unabhängige Regeln, die überprüfbar und durchsetzbar sind.
2. Rote Linien. KI braucht klare Grenzen: Welche Risiken sind unvertretbar? Wann muss die Entwicklung gestoppt werden? Solche Schranken können nur international durchgesetzt werden.

Technischer Fortschritt ist kein Selbstzweck, sondern muss verantwortungsvoll im Interesse der Menschheit gestaltet sein.

Jede Unterschrift zeigt: Die Zukunft der KI darf nicht von Konzernen allein entschieden werden. Die meisten Deutschen wollen mehr Schutz, und wir wollen echte demokratische Teilhabe!

Was sind rote Linien für KI?

Rote Linien verbieten KI-Systeme, die ein unannehmbares Risiko für uns alle bedeuten würden. Darunter fallen Systeme, die: 

- sich unkontrolliert selbst verbessern, 
- Menschen systematisch täuschen, 
- oder katastrophalen Missbrauch wie die Entwicklung von Biowaffen zulassen.

Wie könnte ein internationales Abkommen durchgesetzt werden?

Das Training fortschrittlicher KI-Systeme erfordert heute riesige Rechenzentren mit spezialisierten Computerchips. Diese Konzentration macht eine Regulierung gut umsetzbar.

Ein internationales Abkommen könnte auf drei Säulen basieren:

1. Internationale Aufsicht: Eine neue internationale Behörde überprüft die Einhaltung von Sicherheitsstandards in Zusammenarbeit mit nationalen Behörden. Whistleblower werden geschützt.
2. Rechenleistung sichtbar machen: Große Trainingsläufe werden registriert und beaufsichtigt. KI-Chips können technisch so gestaltet werden, dass ihre Nutzung nachvollziehbar wird.
3. Konsequenzen bei Verstößen: Staaten beschließen gemeinsame Sanktionen gegen Akteure, die rote Linien überschreiten, und entwickeln Strategien für den Umgang mit Krisen.

Was Experten sagen

„Die Minderung des Risikos eines Aussterbens durch KI sollte eine globale Priorität sein, gleichrangig mit anderen Risiken gesamtgesellschaftlichen Ausmaßes wie Pandemien und Atomkrieg.“ — Statement on AI Risk, unterzeichnet von den drei meistzitierten KI-Wissenschaftlern (Geoffrey Hinton, Yoshua Bengio, Ilya Sutskever) und den CEOs führender KI-Unternehmen

„Ich habe vier Jahre im Sicherheitsteam von OpenAI gearbeitet und kann Ihnen mit Gewissheit sagen: KI-Unternehmen nehmen Ihre Sicherheit nicht ernst genug, und sie sind nicht auf Kurs, kritische Sicherheitsprobleme zu lösen.“ — Steven Adler, ehemaliger Leiter der Dangerous Capability Evaluations bei OpenAI

„Wir betonen: Einige KI-Systeme zeigen bereits heute die Fähigkeit und Neigung, die Sicherheits- und Kontrollbemühungen ihrer Entwickler zu untergraben.“  
Konsens führender KI-Sicherheitsforscher, darunter Stuart Russell und Andrew Yao, International Dialogues on AI Safety, Shanghai 2025

Über uns

Diese Petition wird unterstützt von PauseAI, einer internationalen Bürgerbewegung, die sich für mehr Sicherheit und demokratische Kontrolle von leistungsfähigen KI-Systemen einsetzt. Webseite: https://www.pause-ai.de/

 

avatar of the starter
PauseAI GlobalPetitionsstarter*in
Jetzt unterstützen

3.887


Die Entscheidungsträger*innen

Karsten Wildberger
Karsten Wildberger
Bundesminister für Digitales und Staatsmodernisierung

Kommentare von Unterstützer*innen

Neuigkeiten zur Petition

Diese Petition teilen

Petition am 4. Februar 2026 erstellt