Sehr geehrte Frau Herbstreuth, wie engagieren Sie sich für die weltweite Zusammenarbeit im Umgang mit katastrophalen Risiken durch Künstliche Intelligenz? Welche Maßnahmen unterstützen Sie?
Führende KI-Firmen, besonders in den USA, wetteifern um die Entwicklung der ersten KI, die menschliche Fähigkeiten in allen Bereichen übertrifft und eigenständig handeln kann: einer Superintelligenz. Es gibt keine Gewährleistung für deren Sicherheit oder Kontrollierbarkeit. KI ist uns schon in vielen Bereichen überlegen (pauseai.info/sota). Wenn sie Fähigkeiten wie langfristiges Planen und Selbstverbesserung erlangt, wird das bedrohlich.
Aber auch ohne Superintelligenz stellen uns gefährliche KI-Anwendungen, etwa autonome Waffen, vor extreme Risiken.
Deshalb fordern immer mehr Menschen, darunter weltweit anerkannte KI-Experten wie Geoffrey Hinton, Yoshua Bengio und Stuart Russell, ein Verbot von Superintelligenz (superintelligence-statement.org) und das Festlegen Roter Linien für KI (red-lines.ai).
Mittelmächte wie Deutschland können gemeinsam gegen gefährliche KI-Entwicklungen vorgehen, selbst wenn Supermächte anfangs nicht bereit sind, zu kooperieren: https://asi-prevention.com/
Sehr geehrte Frau I.,
haben Sie vielen Dank für Ihre Nachricht und dafür, dass Sie dieses wichtige Thema so differenziert ansprechen. Die Chancen und Risiken hochentwickelter KI-Systeme beschäftigen uns im Deutschen Bundestag intensiv – und ich teile Ihre Einschätzung, dass wir insbesondere bei globalen, potenziell katastrophalen Risiken nur gemeinsam handeln können. Die Debatte über KI-Sicherheit muss international, wissenschaftsgeleitet und verantwortungsvoll geführt werden.
1. Internationale Zusammenarbeit stärken
Die CDU/CSU-Bundestagsfraktion setzt sich dafür ein, dass Deutschland innerhalb der EU, im Europarat, in der OECD und in den G-7 weiterhin eine aktive Rolle beim Aufbau eines verlässlichen internationalen Rahmens für vertrauenswürdige KI spielt. Dazu gehören verbindliche Sicherheitsstandards für besonders leistungsfähige Modelle, gemeinsame Evaluierungs- und Stresstests sowie transparente internationale Meldewege bei neu entdeckten Risiken. Die entstehenden internationalen KI-Sicherheitsinstitute unterstütze ich ausdrücklich.
2. Klare rote Linien und internationale Verbote
Ich halte es für notwendig, auf europäischer und globaler Ebene rote Linien für Anwendungen zu ziehen, die fundamentale Sicherheits- oder Menschenrechtsrisiken erzeugen – etwa autonome Waffensysteme ohne echte menschliche Kontrolle, KI zur massiven Verhaltensmanipulation oder nicht kontrollierbare Systemarchitekturen. Deutschland sollte weiterhin auf internationale Verbote und strenge Exportkontrollen drängen.
3. Verantwortung für hochleistungsfähige KI („Frontier-Modelle“)
Für Modelle, die besondere Fähigkeiten zur autonomen Problemlösung oder Selbstverbesserung entwickeln könnten, brauchen wir ein abgestuftes Sicherheitsregime: verpflichtende Risikoanalysen, Notfall- und Abschaltmechanismen, unabhängige Sicherheitsprüfungen und enge Meldepflichten gegenüber Behörden. Ziel ist, Risiken früh zu erkennen, ohne Innovation unnötig zu bremsen.
4. Forschung zu robusten Sicherheits- und Kontrolltechniken fördern
Deutschland sollte stärker in sicherheitsorientierte KI-Forschung investieren – etwa in robuste Evaluierungsmethoden, Interpretierbarkeit, Schutz vor Missbrauch und zuverlässige Steuerbarkeit. Auch wenn Systeme noch weit von echter Autonomie entfernt sind, brauchen wir stabile Sicherheitsmechanismen.
5. Transparenz und Kontrolle von Modellen
Ein wesentlicher Punkt in der KI-Sicherheit ist die Transparenz von Modellen und Algorithmen. Hier stehen wir in Europa vor einer echten Herausforderung.
Es gibt Abgeordnete im EU-Parlament, die sich mit großem Einsatz dafür stark machen, Transparenzpflichten gegenüber großen Technologieunternehmen gesetzlich verbindlich durchzusetzen – bisher jedoch mit begrenztem Erfolg, weil diese Anforderungen oft auf massiven Widerstand der großen Anbieter stoßen.
Dabei ist für mich eine differenzierte Herangehensweise zentral:
- Transparenz ist notwendig, um Risiken einschätzen, Fehlverhalten erkennen und Missbrauch verhindern zu können.
- Gleichzeitig müssen wir unterscheiden, welche Informationen öffentlich sein dürfen – und welche nur unter strenger Kontrolle zugänglich sein sollten, etwa bei sicherheitsrelevanten oder strafverfolgungsrelevanten Modellen.
Denn:
Es gibt Modelle und Algorithmen, deren Einsicht für die Öffentlichkeit gefährlich sein könnte, aber deren Kontrolle durch spezialisierte unabhängige Stellen unverzichtbar ist. Wir brauchen daher klare Strukturen, die Transparenz ermöglichen, ohne Sicherheitslücken zu öffnen.
Ein ungelöstes Problem ist zudem die Frage, wie diese Kontrolle praktisch umgesetzt werden soll:
Ob wir künftig mit KI-gestützten Gegenkontrollsystemen arbeiten können oder ob menschliche Expertise weiterhin ausreicht, ist offen. Ich bin ehrlich: Hier stehen wir erst am Anfang. Dieses Thema wird uns in den kommenden Jahren massiv beschäftigen – technologisch, politisch und ethisch.
6. Diplomatische Koalitionen für KI-Sicherheit
Gerade mittelgroße Demokratien können gemeinsam viel bewirken. Ich setze mich dafür ein, bestehende Allianzen zu vertiefen und neue Koalitionen zu schaffen, die verbindliche internationale Standards unterstützen – sowohl in der Rüstungskontrolle als auch bei zivilen Hochrisikoanwendungen.
7. Verantwortungsvoller Realismus
Die Stimmen internationaler KI-Expertinnen und -Experten nehme ich sehr ernst. Gleichzeitig gilt: Wir müssen Risiken entschlossen begrenzen, ohne technologische Innovation zu ersticken. Ziel ist eine menschzentrierte, verantwortungsvolle KI-Politik, die unsere Sicherheit stärkt.
Ich danke Ihnen ausdrücklich für Ihr Engagement und für die Hinweise auf verschiedene Initiativen. Die gesellschaftliche Debatte ist wichtig, damit wir technologische Entwicklungen nicht nur begleiten, sondern aktiv in sichere Bahnen lenken.
Mit freundlichen Grüßen
Diana Herbstreuth
