Unterstützen Sie ein internationales Verbot der Superintelligenz-Entwicklung bis wissenschaftlicher Konsens über Sicherheit und starke öffentliche Zustimmung vorliegen?
Super Intelligence statement (https://superintelligence-statement.org/):
Noch im Oktober 2025 bezeichnete OpenAI-CEO Sam Altman im Gespräch mit Mathias Döpfner Künstliche Superintelligenz als das größte Risiko für die Menschheit. Stuart Russell betont: "Dies ist kein Verbot im üblichen Sinne. Es ist lediglich der Vorschlag, angemessene Sicherheitsmaßnahmen für eine Technologie zu verlangen, die laut ihren Entwicklern eine signifikante Chance hat, die Menschheit auszulöschen."Diese Warnung teilen führende KI-Experten weltweit: Das "Superintelligence Statement" wird bereits unterstützt von Geoffrey Hinton (Nobelpreisträger), Yoshua Bengio (meistzitierter KI-Forscher weltweit), Stuart Russell (Berkeley, Direktor des Center for Human-Compatible AI), Steve Wozniak, Susan Rice, Paolo Benanti (KI-Berater des Vatikans) sowie zahlreichen OpenAI-Mitarbeitern.* https://www.anthropic.com/research/agentic-misalignment
* https://pressure.somestuff.live/
* https://www.narrowpath.co/
Künstliche Intelligenz ist ein (oder mehrere) Computerprogramme, die auf einem Hochleistungscomputer laufen, und die ihre eigenen Berechnungsmethoden immer wieder den im Verfahren selbst entwickelten Ergebnissen anpassen bzw. unterwerfen. In ganz vielen Fällen ist dies ein äußerst interessanter wissenschaftlicher Rechenvorgang. Lediglich in bestimmten Fällen, wo das Ergebnis der Berechnung mit direkten Auswirkungen im realen Leben von Bürgerinnen und Bürgern verbunden ist, ist Vorsicht geboten. Deswegen sind angemessene Sicherheitsmaßnahmen natürlich notwendig. Das Gesetz über künstliche Intelligenz (AI Act) sieht genau solche Sicherheitsmaßnahmen für alle "Hochrisikoanwendungen" vor. Wir sollten diese Technologie also nutzen, wo sie uns hilft, aber die Gefahren rechtzeitig erkennen und eine Nutzung in Bereichen untersagen, wo das Risiko für die Menscheit zu groß ist.
