Informieren
Warum KI-Sicherheit wichtig ist
Hier findest du die besten Ressourcen, um die Risiken künstlicher Intelligenz zu verstehen — von kurzen Videos bis zu wissenschaftlichen Artikeln.
Unsere Aktionen
- Appell zum KI-Gipfel 2026 — Unser offener Appell für sichere KI-Entwicklung. Artikel. Interview.
- EU parliamentarians acknowledge the catastrophic risks of artificial intelligenceEN — Bericht über den Protest von PauseAI vor dem EU-Parlament im Februar.
Wichtige Websites
- PauseAI GlobalEN — Die internationale Bewegung.
- KI-Risiken.deDE — Umfassende Übersicht über die Risiken der KI von Karl Olsberg.
- Benjamin Balde's BlogDE — Blog über das existenzielle Risiko durch KI und verwandte Themen.
- The AI ChronicleDE — Die wichtigsten Ereignisse in der Geschichte der KI im Hinblick auf Sicherheit, von 1950 bis jetzt
- ControlAI QuotesEN — Zitate wichtiger Personen zum Thema exisistenzielle Risiken der KI.
- The CompendiumEN — Über die Gefahr des aktuelle KI-Wettrennens und was wir dagegen tun können, von Connor Leahy et al.
- A Narrow PathEN — Ein detaillierter Plan, wie wir die Zukunft sicher gestalten können, von Andrea Miotti et al.
- Keep the Future HumanEN — Ein Essay, wie wir die Zukunft menschlich halten können, von Anthony Aguirre.
- IncidentDatabase.aiEN — Datenbank von Vorfällen, bei denen KI-Systeme Schaden verursacht haben.
Newsletter
Videos
- Karl Olsberg's YouTube KanalDE
- Kurzgesagt: SuperintelligenzDE — 15min
- Why experts fear superintelligent AI – and what we can do about itEN — 2,5min
- Why AI Is Our Ultimate Test and Greatest Invitation | Tristan Harris | TEDEN — 15min
- How To Prevent The AI ApocalypseEN — 15min
- We're Not Ready for SuperintelligenceEN — 34min
- Playlist: Introduction to AI RisksEN — YouTube-Playlist von PauseAI Global mit Videos von 1 Minute bis 1 Stunde, kein Vorwissen nötig.
- Playlist: Alignmentpilling with RobEN — Hervorragender Einstieg in die Grundlagen des KI-Alignments, von Rob Miles.
Podcasts
- Experte: KI wird später keine Kontrolle durch Menschen mehr zulassenDE — Interview mit Karl Hans Bläsius im Deutschlandfunk (18.2.2026).
- Godfather of AI: They Keep Silencing Me But I’m Trying to Warn Them!EN — Interview mit Geoffrey Hinton, Turing-Award-Preisträger und Mitbegründer der modernen KI. (16.6.2025).
- AI is MUTATING: And We Don't Know What It is Doing | Connor LeahyEN — Aktuelles Interview mit Connor Leahy (10.3.2026).
- Why Superhuman AI Would Kill Us All - Eliezer YudkowskyEN — Aktuelles Interview mit Eliezer Yudkowsky (25.10.2025).
- DoomDebatesEN — Debatten über das existenzielle Risiko durch KI von Liron Shapira.
- For Humanity: An AI Risk PodcastEN — Podcast über das existenzielle Risiko durch KI von John Sherman.
- Max Tegmark: The Case for Halting AI Development | Lex Fridman Podcast #371EN
Artikel
- DER SPIEGEL Titelstory: Die TodesmaschineDE — Der Aufstieg von künstlicher Intelligenz ist so gefährlich wie die Erfindung der Atombombe. KI-Pioniere warnen: Die Menschheit muss die Maschinen einhegen, solange sie das noch kann. (03.03.2026)
- DER SPIEGEL Kolumne: KI-Schöpfer warnen vor tödlichen Gefahren der Technik. Warum ignorieren wir sie?DE — Künstliche Intelligenz könnte eines Tages die perfekte Waffe in den Händen von Diktatoren und Terroristen sein – oder sich gegen die Menschheit wenden. Wer das für Science-Fiction hält, hat das Wesen der neuen Technik nicht verstanden. (08.02.2026)
- DER SPIEGEL Interview: »Als mir klar wurde, dass die Zukunft meiner Kinder bedroht ist, musste ich handeln«DE — Der Informatiker Yoshua Bengio gilt als einer der wichtigsten KI-Forscher der Welt und wichtiger Gründervater der Technik. Heute hält er seine Schöpfung für brandgefährlich – und warnt vor dem Kontrollverlust. (14.11.2025)
- The 'Don't Look Up' Thinking That Could Doom Us With AI (Max Tegmark)EN
- Pausing AI Developments Isn't Enough. We Need to Shut it All Down (Eliezer Yudkowsky)EN
- The Case for Slowing Down AI (Sigal Samuel)EN
- The AI Revolution: The Road to Superintelligence (WaitButWhy)EN
- How rogue AIs may arise (Yoshua Bengio)EN
Bücher
- Kontroll-IllusionDE — Warum KI unsere Existenz bedroht (Karl Olsberg, 2025)
- If Anyone Builds It, Everyone DiesEN — Eliezer Yudkowsky & Nate Soares, 2025
- Uncontrollable: The Threat of Artificial SuperintelligenceEN — Darren McKee, 2023
- The Alignment ProblemEN — Brian Christian, 2020
- Human CompatibleEN — Stuart Russell, 2019
- Life 3.0EN — Max Tegmark, 2017
- SuperintelligenceEN — Nick Bostrom, 2014
Wissenschaftliche Arbeiten
- Sammlung von KI-SicherheitsartikelnEN
- Weitere SammlungEN
- Alignment faking in large language modelsEN — Aktuelle Arbeit von Anthropic.
- Managing extreme AI risks amid rapid progressEN — Von den Pionieren des Feldes.
Stellungnahmen
Organisationen
- ControlAIEN — NGO für Lobby- und Kampagnenarbeit in Großbritannien und Europa.
- Torchbearer CommunityEN — Internationale ehrenamtliche Community mit ähnlichen Zielen wie PauseAI/ControlAI
- Future of Life InstituteEN — Hat den offenen Brief initiiert, geleitet von Max Tegmark.
- Center for AI Safety (CAIS)EN — Forschungszentrum unter Dan Hendrycks.
- ConjectureEN — Start-up für KI-Alignment und KI-Politik unter Connor Leahy.
- Machine Intelligence Research Institute (MIRI)EN — Mathematische Forschung zur KI-Sicherheit unter Eliezer Yudkowsky.
- Institute for AI Policy and Strategy (IAPS)EN
Du hast Fragen, möchtest dich mit anderen austauschen oder erfahren was du tun kannst?
All das kannst du in unserer Community tun. Wir laden dich herzlich ein, uns kennenzulernen.
MitmachenDir fällt es schwer, über das Thema nachzudenken?
Erfahre mehr über die Psychologie existenzieller Risiken, um zu verstehen, warum es so schwer fällt, diese Bedrohung ernst zu nehmen.