Künstliche Intelligenz: Stopp der Entwicklung einer Superintelligenz


Künstliche Intelligenz: Stopp der Entwicklung einer Superintelligenz
Das Problem
English Version below
An die KI Labore der Welt, an die Politiker dieser Welt und an die breite Öffentlichkeit.
Wir Menschen haben uns evolutionär durchgesetzt, weil wir die intelligentesten Lebewesen sind, nicht weil wir starke Waffen haben. Das hat Elon Musk auf dem AI Security Summit in Großbritannien am 1.11.2023 gesagt und stellt sich damit in eine Reihe mit bekannten Wissenschaftlern wie Steven Hawking (der noch vor seinem Tod 2014 vor der Gefahr warnte) oder Nick Bostrom (Universität Oxford), aber auch dem bisher stärksten Förderer der KI Geoffrey Hinton und viele andere. Sie alle warnen vor der Auslöschung der Menscheit durch eine künstliche Superintelligenz. Die Teilnehmer der Sicherheitskonferenz haben in ihrer Abschlusserklärung gesagt, sie hätten die Risiken verstanden.
Das ist schwer zu glauben, weil man den KI Laboren trotzdem weiterhin (und viel zu schwach reguliert) die Entwicklung einer Superintelligenz erlaubt, die die menschliche bei weitem übertrifft. Die Hoffnung: Wohlstand für alle und Elimierung der Armut, Ausrotten von Krankheiten und Beenden der Klimakrise. Die möglichen Nebenwirkungen: Vernichtung der Menschheit.
(Nachdem sie sich durch den von uns unterstützten Ausbau der Robotik von uns unabhängig gemacht hat, bspw. durch Übernahme der Kontrolle über Waffensysteme oder schlicht durch Massenmanipulation. Es gibt sehr viele Szenarien.)
Und es gibt keine wirksame Maßnahme, dieses Risiko auf 0 zu senken. Das gibt auch OpenAI zu, sagt aber gleichzeitig, dass die Entwicklung der Superintelligenz unausweichlich wäre. Das ist sie nicht: wir können uns bewusst entscheiden, sie nicht zu entwickeln. Die Erfindung der Superintelligenz wäre sicher die letzte Erfindung, die Menschen machen würden. Danach würde nur noch die KI erfinden. Und es wäre mit Sicherheit auch die dümmste Erfindung, weil sich die Menschheit damit evolutionär aussortiert.
Leider sind die Labore ihren Ziel schon bedenklich nahe gekommen, so dass es in wenigen Jahren so weit sein könnte. Zudem hat sich ein Wettrennen entwickelt, wer als erstes das stärkste System entwickelt. Und niemand weiß, ob sich die Superintelligenz eventuell irgendwann gegen die Menschen entscheiden könnte. Sie wird von Menschen mit ihrer niedrigen Intelligenz nicht mehr kontrollieren lassen, auch nicht mit einem Superalignment, wie OpenAI es versucht, weil sie sich weiterentwickeln wird und eben weil sie den Menschen überlegen ist. Jeder vernunftbegabte Mensch müsste eigentlich zu dem Schluss kommen, dass es dumm ist, sich in ein solches Risiko zu begeben. Egal wie sicher man sich es, das Risiko in den Griff zu bekommen. Es wird ein Restrisiko bleiben und jedes Restrisiko ist zu hoch, weil es um das Überleben der Menschheit geht. Kein Gewinn kann groß genug sein um diesen Preis zu bezahlen. Das ist ein Spiel mit dem Feuer.
Dieses unverantwortliche Experiment mit dem Leben von 8 Milliarden Menschen muss sofort gestoppt werden. Wir brauchen keine Superintelligenz, die Staaten der Erde müssen sich jetzt nur einmal ernsthaft mit der Erhaltung der Menschheit und der Natur auseinandersetzen und wirklich zusammenarbeiten.
Die Klimakrise können wir mit weniger co2 Ausstoß beenden (zunächst die stromfressenden KI Datenzentren abschalten) und die Armut kann man durch gerechte Umverteilung des Reichtums lösen. Dazu fehlt keine Intelligenz, nur politischer Wille. Und für die Behandlung und Erkennung von Krankheiten gibt es bereits schwächere künstliche Intelligenzen und Fortschritte in der mRNA Technologie, die außerordentlich nützlich und risikoärmer sind.
Deshalb fordern wir den sofortigen Stopp hin zur Entwicklung einer künstlichen Superintelligenz. Belassen wir es schwächeren künstlichen Intelligenzen und geben uns damit zufrieden. Wir gewinnen damit die Sicherheit, dass wir Risiken jederzeit noch beherrschen können.
An die KI Labore (z.B. OpenAI, Deepmind, Anthropic,…): Nehmen Sie Ihre Verantwortung ernst und stoppen Sie dieses unethische Expirement mit dem Leben der Menschheit.
An die Politiker der Welt: Verbieten Sie die Entwicklung einer Superintelligenz.
Beispiel-Quellen:
- https://futureoflife.org/cause-area/artificial-intelligence/
- https://www.theguardian.com/technology/2016/jun/12/nick-bostrom-artificial-intelligence-machine
- https://www.n-tv.de/politik/Mit-KI-ausser-Kontrolle-koennten-wir-alle-sterben-article24009070.html
- https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- https://www.spiegel.de/netzwelt/kuenstliche-intelligenz-warnung-des-chatgpt-anbieters-openai-vor-superintelligenz-a-bbd50fe0-2e97-4df3-b5ce-a95d84043713
- https://the-decoder.de/abschiedsgruss-stephen-hawking-warnt-vor-ki-und-supermenschen/
- https://rp-online.de/digitales/kuenstliche-intelligenz-openai-warnt-vor-superintelligenz_aid-93277277
- https://openai.com/blog/introducing-superalignment
English Version
To the AI labs of the world, to the politicians of this world, and to the general public.
We humans have prevailed evolutionarily because we are the most intelligent beings, not because we have strong weapons. This was said by Elon Musk at the AI Security Summit in the UK on November 1, 2023, aligning him with renowned scientists like Stephen Hawking or Nick Bostrom, but also with the strongest proponent of AI, Geoffrey Hinton, and many others. They all warn of the annihilation of humanity by an artificial superintelligence. The participants of the security conference stated in their final declaration that they had understood the risks.
This is hard to believe since AI labs are still allowed to develop a superintelligence that far surpasses human intelligence. The hope: prosperity for all and the elimination of poverty, eradication of diseases, and ending the climate crisis. The possible side effects: the destruction of humanity.
And there is no effective measure to reduce this risk to zero. OpenAI admits this but also states that the development of superintelligence is inevitable. It is not: we can consciously choose not to develop it. The invention of superintelligence would surely be the last invention humans would make. After that, only AI would invent. And it would certainly also be the dumbest invention because it would evolutionarily sort out humanity.
Unfortunately, the labs have already come dangerously close to this goal, so it could soon be a reality. And no one knows if the superintelligence might eventually decide against humans. It will not be controllable by humans with their lower intelligence, not even with a superalignment, as OpenAI is attempting because it will continue to evolve and is superior to humans. Any rational human being should come to the conclusion that it is foolish to enter into such a risk. No matter how certain one is of managing the risk, there will always be a residual risk, and any residual risk is too high when it comes to the survival of humanity. No gain can be great enough to pay this price. It's playing with fire.
This irresponsible experiment with the lives of 8 billion people must be stopped immediately. We do not need a superintelligence; the states of the Earth must now seriously address the preservation of humanity and nature and truly work together.
The climate crisis can be ended with less CO2 emission, and poverty can be solved through fair redistribution of wealth. No intelligence is lacking for these, only political will. And for the treatment and detection of diseases, there are already weaker artificial intelligences and advances in mRNA technology, which are extraordinarily useful and less risky.
Therefore, we demand the immediate cessation of the development of an artificial superintelligence. Let's settle for weaker artificial intelligences and be satisfied with them. In doing so, we gain the assurance that we can still control risks at any time.
To the AI labs (e.g., OpenAI, DeepMind, Anthropic, ...): Take your responsibility seriously and stop this unethical experiment with the life of humanity.
To the politicians of the world: Prohibit the development of a superintelligence.
72
Das Problem
English Version below
An die KI Labore der Welt, an die Politiker dieser Welt und an die breite Öffentlichkeit.
Wir Menschen haben uns evolutionär durchgesetzt, weil wir die intelligentesten Lebewesen sind, nicht weil wir starke Waffen haben. Das hat Elon Musk auf dem AI Security Summit in Großbritannien am 1.11.2023 gesagt und stellt sich damit in eine Reihe mit bekannten Wissenschaftlern wie Steven Hawking (der noch vor seinem Tod 2014 vor der Gefahr warnte) oder Nick Bostrom (Universität Oxford), aber auch dem bisher stärksten Förderer der KI Geoffrey Hinton und viele andere. Sie alle warnen vor der Auslöschung der Menscheit durch eine künstliche Superintelligenz. Die Teilnehmer der Sicherheitskonferenz haben in ihrer Abschlusserklärung gesagt, sie hätten die Risiken verstanden.
Das ist schwer zu glauben, weil man den KI Laboren trotzdem weiterhin (und viel zu schwach reguliert) die Entwicklung einer Superintelligenz erlaubt, die die menschliche bei weitem übertrifft. Die Hoffnung: Wohlstand für alle und Elimierung der Armut, Ausrotten von Krankheiten und Beenden der Klimakrise. Die möglichen Nebenwirkungen: Vernichtung der Menschheit.
(Nachdem sie sich durch den von uns unterstützten Ausbau der Robotik von uns unabhängig gemacht hat, bspw. durch Übernahme der Kontrolle über Waffensysteme oder schlicht durch Massenmanipulation. Es gibt sehr viele Szenarien.)
Und es gibt keine wirksame Maßnahme, dieses Risiko auf 0 zu senken. Das gibt auch OpenAI zu, sagt aber gleichzeitig, dass die Entwicklung der Superintelligenz unausweichlich wäre. Das ist sie nicht: wir können uns bewusst entscheiden, sie nicht zu entwickeln. Die Erfindung der Superintelligenz wäre sicher die letzte Erfindung, die Menschen machen würden. Danach würde nur noch die KI erfinden. Und es wäre mit Sicherheit auch die dümmste Erfindung, weil sich die Menschheit damit evolutionär aussortiert.
Leider sind die Labore ihren Ziel schon bedenklich nahe gekommen, so dass es in wenigen Jahren so weit sein könnte. Zudem hat sich ein Wettrennen entwickelt, wer als erstes das stärkste System entwickelt. Und niemand weiß, ob sich die Superintelligenz eventuell irgendwann gegen die Menschen entscheiden könnte. Sie wird von Menschen mit ihrer niedrigen Intelligenz nicht mehr kontrollieren lassen, auch nicht mit einem Superalignment, wie OpenAI es versucht, weil sie sich weiterentwickeln wird und eben weil sie den Menschen überlegen ist. Jeder vernunftbegabte Mensch müsste eigentlich zu dem Schluss kommen, dass es dumm ist, sich in ein solches Risiko zu begeben. Egal wie sicher man sich es, das Risiko in den Griff zu bekommen. Es wird ein Restrisiko bleiben und jedes Restrisiko ist zu hoch, weil es um das Überleben der Menschheit geht. Kein Gewinn kann groß genug sein um diesen Preis zu bezahlen. Das ist ein Spiel mit dem Feuer.
Dieses unverantwortliche Experiment mit dem Leben von 8 Milliarden Menschen muss sofort gestoppt werden. Wir brauchen keine Superintelligenz, die Staaten der Erde müssen sich jetzt nur einmal ernsthaft mit der Erhaltung der Menschheit und der Natur auseinandersetzen und wirklich zusammenarbeiten.
Die Klimakrise können wir mit weniger co2 Ausstoß beenden (zunächst die stromfressenden KI Datenzentren abschalten) und die Armut kann man durch gerechte Umverteilung des Reichtums lösen. Dazu fehlt keine Intelligenz, nur politischer Wille. Und für die Behandlung und Erkennung von Krankheiten gibt es bereits schwächere künstliche Intelligenzen und Fortschritte in der mRNA Technologie, die außerordentlich nützlich und risikoärmer sind.
Deshalb fordern wir den sofortigen Stopp hin zur Entwicklung einer künstlichen Superintelligenz. Belassen wir es schwächeren künstlichen Intelligenzen und geben uns damit zufrieden. Wir gewinnen damit die Sicherheit, dass wir Risiken jederzeit noch beherrschen können.
An die KI Labore (z.B. OpenAI, Deepmind, Anthropic,…): Nehmen Sie Ihre Verantwortung ernst und stoppen Sie dieses unethische Expirement mit dem Leben der Menschheit.
An die Politiker der Welt: Verbieten Sie die Entwicklung einer Superintelligenz.
Beispiel-Quellen:
- https://futureoflife.org/cause-area/artificial-intelligence/
- https://www.theguardian.com/technology/2016/jun/12/nick-bostrom-artificial-intelligence-machine
- https://www.n-tv.de/politik/Mit-KI-ausser-Kontrolle-koennten-wir-alle-sterben-article24009070.html
- https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- https://www.spiegel.de/netzwelt/kuenstliche-intelligenz-warnung-des-chatgpt-anbieters-openai-vor-superintelligenz-a-bbd50fe0-2e97-4df3-b5ce-a95d84043713
- https://the-decoder.de/abschiedsgruss-stephen-hawking-warnt-vor-ki-und-supermenschen/
- https://rp-online.de/digitales/kuenstliche-intelligenz-openai-warnt-vor-superintelligenz_aid-93277277
- https://openai.com/blog/introducing-superalignment
English Version
To the AI labs of the world, to the politicians of this world, and to the general public.
We humans have prevailed evolutionarily because we are the most intelligent beings, not because we have strong weapons. This was said by Elon Musk at the AI Security Summit in the UK on November 1, 2023, aligning him with renowned scientists like Stephen Hawking or Nick Bostrom, but also with the strongest proponent of AI, Geoffrey Hinton, and many others. They all warn of the annihilation of humanity by an artificial superintelligence. The participants of the security conference stated in their final declaration that they had understood the risks.
This is hard to believe since AI labs are still allowed to develop a superintelligence that far surpasses human intelligence. The hope: prosperity for all and the elimination of poverty, eradication of diseases, and ending the climate crisis. The possible side effects: the destruction of humanity.
And there is no effective measure to reduce this risk to zero. OpenAI admits this but also states that the development of superintelligence is inevitable. It is not: we can consciously choose not to develop it. The invention of superintelligence would surely be the last invention humans would make. After that, only AI would invent. And it would certainly also be the dumbest invention because it would evolutionarily sort out humanity.
Unfortunately, the labs have already come dangerously close to this goal, so it could soon be a reality. And no one knows if the superintelligence might eventually decide against humans. It will not be controllable by humans with their lower intelligence, not even with a superalignment, as OpenAI is attempting because it will continue to evolve and is superior to humans. Any rational human being should come to the conclusion that it is foolish to enter into such a risk. No matter how certain one is of managing the risk, there will always be a residual risk, and any residual risk is too high when it comes to the survival of humanity. No gain can be great enough to pay this price. It's playing with fire.
This irresponsible experiment with the lives of 8 billion people must be stopped immediately. We do not need a superintelligence; the states of the Earth must now seriously address the preservation of humanity and nature and truly work together.
The climate crisis can be ended with less CO2 emission, and poverty can be solved through fair redistribution of wealth. No intelligence is lacking for these, only political will. And for the treatment and detection of diseases, there are already weaker artificial intelligences and advances in mRNA technology, which are extraordinarily useful and less risky.
Therefore, we demand the immediate cessation of the development of an artificial superintelligence. Let's settle for weaker artificial intelligences and be satisfied with them. In doing so, we gain the assurance that we can still control risks at any time.
To the AI labs (e.g., OpenAI, DeepMind, Anthropic, ...): Take your responsibility seriously and stop this unethical experiment with the life of humanity.
To the politicians of the world: Prohibit the development of a superintelligence.
72
Die Entscheidungsträger*innen




Neuigkeiten zur Petition
Diese Petition teilen
Petition am 6. November 2023 erstellt