Unterstützen Sie ein internationales Verbot der Superintelligenz-Entwicklung bis wissenschaftlicher Konsens über Sicherheit und starke öffentliche Zustimmung vorliegen?
Super Intelligence statement (https://superintelligence-statement.org/):
Noch im Oktober 2025 bezeichnete OpenAI-CEO Sam Altman im Gespräch mit Mathias Döpfner Künstliche Superintelligenz als das größte Risiko für die Menschheit.
Stuart Russell betont: "Dies ist kein Verbot im üblichen Sinne. Es ist lediglich der Vorschlag, angemessene Sicherheitsmaßnahmen für eine Technologie zu verlangen, die laut ihren Entwicklern eine signifikante Chance hat, die Menschheit auszulöschen."
Diese Warnung teilen führende KI-Experten weltweit: Das "Superintelligence Statement" wird bereits unterstützt von Geoffrey Hinton (Nobelpreisträger), Yoshua Bengio (meistzitierter KI-Forscher weltweit), Stuart Russell (Berkeley, Direktor des Center for Human-Compatible AI), Steve Wozniak, Susan Rice, Paolo Benanti (KI-Berater des Vatikans) sowie zahlreichen OpenAI-Mitarbeitern.
* https://www.anthropic.com/research/agentic-misalignment
* https://pressure.somestuff.live/
* https://www.narrowpath.co/
Sehr geehrter Herr S.,
Vielen Dank für ihre Frage. Die von führenden Wissenschaftlern und KI-Experten geäußerten Risiken nehme ich sehr ernst. Gleichzeitig halte ich ein pauschales Forschungsverbot nicht für zielführend und praktikabel. Ich setze mich für ein international abgestimmtes Risikomanagement ein, welches transparente Forschung, hohe Sicherheitsstandards und multilaterale Governance-Strukturen mit Innovationen und technischem Fortschritt vereint.
Ein EU-weites Verbot würde die Europäische Union lediglich vom globalen Wettbewerb ausschließen. Eine Lenkung der Forschungsbemühungen in rechtsstaatliche Bahnen gewährleistet hingegen, dass Menschenrechte und ethische Standards verlässlich geschützt werden.
Mit freundlichen Grüßen
Svenja Hahn
