Appell zum KI-Gipfel 2026
PauseAI Logo
Earth from space showing Europe

Wir können den
KI-Kontrollverlust
noch verhindern

Hilf mit, jetzt Klarheit zu schaffen!

Das Problem

KI-Labore arbeiten auf eine künstliche Superintelligenz hin – jedoch weiß niemand, wie diese kontrolliert werden kann. Viele Forscher warnen, dass dies zur Auslöschung der Menschheit führen könnte.

Die Lösung

Ein internationales Abkommen, das die Entwicklung von superintelligenter KI stoppt, bis diese sicher möglich ist. Eine mögliche Lösung ist der Entwurf des Machine Intelligence Research Instituts.

Statement on Superintelligence

Statement on Superintelligence

Signed by 130,000+ including AI researchers, political leaders, and industry figures

"We call for a prohibition on the development of superintelligence, not lifted before there is broad scientific consensus that it will be done safely and controllably, and strong public buy-in."
"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war."
"International unterstütze ich Initiativen, die rote Linien für KI definieren, autonome Waffensysteme ächten und globale Sicherheitsstandards schaffen. Deutschland kann dabei gemeinsam mit europäischen Partnern wichtige Impulse setzen, etwa durch stärkere Forschung zu Sicherheit und Kontrollierbarkeit sowie internationale Transparenzregeln für besonders leistungsfähige Modelle."
"It might be quite sensible to just stop developing these things any further."
"Verbindliche internationale Abkommen und ethische Grundlagen für den Einsatz von KI werden benötigt um ein Wettrennen zwischen den Staaten um die leistungsfähigste KI zu unterbinden."
"Banning powerful AI systems beyond GPT-4 abilities with autonomy would be a good start."
"Ich halte es für notwendig, auf europäischer und globaler Ebene rote Linien für Anwendungen [von KI] zu ziehen, die fundamentale Sicherheits- oder Menschenrechtsrisiken erzeugen – etwa autonome Waffensysteme ohne echte menschliche Kontrolle, KI zur massiven Verhaltensmanipulation oder nicht kontrollierbare Systemarchitekturen."
"The development of full artificial intelligence could spell the end of the human race."
"for it seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. ... At some stage therefore we should have to expect the machines to take control"

Quelle des Zitats