Unterstützen Sie das von führenden KI-Forschern unterzeichnete Superintelligence Statement, das die Entwicklung von Superintelligenz stoppen will?
Das Superintelligence Statement (superintelligence-statement.org) fordert einen Stopp der Entwicklung von künstlicher Superintelligenz, da die damit verbundenen Risiken derzeit nicht beherrschbar sind.
Das Statement wurde von über 125.000 Personen weltweit unterzeichnet. Zu den prominenten Unterstützern zählen führende, international anerkannte KI-Forscher wie Yoshua Bengio und Geoffrey Hinton, die als "Paten der KI" gelten. Diese Experten warnen öffentlich vor einem zweistelligen prozentualen Risiko des Aussterbens der Menschheit durch unkontrollierte Superintelligenz.
Angesichts dieser existenziellen Bedrohung argumentieren die Unterzeichner, dass eine internationale Verhandlung und ein bindendes Abkommen notwendig sind, um die Forschung zu kontrollieren.
“Banning powerful AI systems (say beyond the abilities of GPT-4) that are given autonomy and agency would be a good start.”
– Yoshua Bengio, meistzitierter lebender Wissenschaftler
Sehr geehrte Frau S.,
vielen Dank für Ihre Anfrage vom 21. November 2025, auf die ich Ihnen gerne antworte.
Die SPD-Bundestagsfraktion unterstützt europäischen Regelungen mit Blick auf KI. Die KI-Verordnung ist ein risikobasierter Ansatz, um zu einer verantwortungsvollen KI zu gelangen.
Die KI-Verordnung schlägt insbesondere strenge Vorgaben für Hochrisiko-KI vor. Das ist ein richtiger Ansatz. Leider sollen diese Hochrisiko-Regelungen nach einem aktuellen Vorschlag zeitlich verschoben werden. Wir hätten gerne gesehen, dass es keine zeitliche Verschiebung hierfür gibt.
Die EU ist mit der KI-Verordnung Vorreiter. Insbesondere im Vergleich zu den KI-Entwicklungen in den USA mit dem AI Action Plan der Trump-Regierung. Ebenso zeigen die kürzlich vorgeschlagenen Dekrete von Präsident Trump, dass Europa eine Verpflichtung hat, einen KI-Rechtsrahmen auf Basis unserer Werte zu schaffen, damit die Schutzstandards für Bürgerinnen und Bürger hochgehalten werden.
Wir beschäftigen uns intensiv mit den Risiken und Entwicklungen der Forschung zu KI.
Gerne möchte ich Sie noch auf ein Positionspapier der SPD-Bundestagsfraktion zu diesem Thema hinweisen: https://www.spdfraktion.de/system/files/documents/position-artificial-intelligence-act-regulierung-vertrauenswuerdige-ki.pdf
Mit freundlichen Grüßen
Daniel Rinkert
