PauseAI Logo
PauseAI Demo Amsterdam

Wir sind nicht bereit
für Superintelligenz

Wir bei PauseAI Deutschland klären die Bevölkerung und Politik über KI Risiken auf, insbesondere über existenzielles Risiko.

Das Problem

KI-Labore arbeiten auf eine künstliche Superintelligenz zu – jedoch weiß niemand, wie diese kontrolliert werden kann. Viele Forscher warnen, dass dies zur Auslöschung der Menschheit führen könnte.

Die Lösung

Ein internationales Abkommen, das die Entwicklung von superintelligenter KI stoppt, bis diese sicher möglich ist. Wir unterstützen den Entwurf des Machine Intelligence Research Instituts.

Statement on Superintelligence

Statement on Superintelligence

Signed by 130,000+ including AI researchers, political leaders, and industry figures

We call for a prohibition on the development of superintelligence, not lifted before there is broad scientific consensus that it will be done safely and controllably, and strong public buy-in.

Was du tun kannst

Folge unserem Newsletter.

Damit du über wichtige Neuigkeiten und Events informiert bleibst.

Trete unserem Discord bei

Werde Teil unserer Community und hilf mit.

Trete Microcommit.io bei

5min/Woche Aufwand die dennoch viel bewegen. Wenn du dich registriert hast, gehe auf “Profile”, scroll zu “Organizations You Follow”, und folge “Pause AI Germany”.

Spenden

Deine Spende bringt uns weiter. Bei Interesse kontaktiere: germany@pauseai.info