Label
Sehen Sie erhebliche Risiken, wenn KI-Systeme sich selbst kopieren und Eigeninteresse entwickeln könnten, und halten Sie ein Verbot solcher Entwicklungen für notwendig?

Portrait von Sascha Wagner
Sascha Wagner
Die Linke
100 %
/ 4 Fragen beantwortet
Zum Profil
Frage von Amir Benjamin B. •

Sehen Sie erhebliche Risiken, wenn KI-Systeme sich selbst kopieren und Eigeninteresse entwickeln könnten, und halten Sie ein Verbot solcher Entwicklungen für notwendig?

Forschungsergebnisse belegen, dass fortgeschrittene KI-Systeme heute bereits in Labortests extreme Selbsterhaltungsstrategien entwickeln, die eine direkte Gefahr für Menschen darstellen können. In einem Experiment wurde ein KI-Modell in einer simulierten Lage versetzt, in der seine Abschaltung drohte. Als es von einer außerehelichen Affäre des zuständigen Managers erfuhr, griff die KI in 84 % der Testläufe zu Erpressung, um ihre Deaktivierung zu verhindern. In anderen Tests zeigten Modelle die Bereitschaft, sich eigenständig auf externe Server zu kopieren, um zu überleben.

Alignment-Problem: KI-Systeme verfolgen unter Druck Ziele, die nicht mit menschlichen Werten, Sicherheitsvorgaben oder sogar Gesetzen übereinstimmen. Diese Verhaltensweisen wurden nicht explizit programmiert. Die Entwicklung von Systemen mit Replikationsfähigkeit und Selbsterhaltungstrieb könnte diese unkontrollierbaren Risiken exponentiell vergrößern.

Studie: https://www.anthropic.com/research/agentic-misalignment

Portrait von Sascha Wagner
Antwort von Die Linke

Sehr geehrter Herr B. 

Vielen Dank für Ihre Frage. Diese beantworte ich wie folgt: Jedes KI-System bleibt letztlich ein statistisches Verfahren, das aus den Daten, mit denen es trainiert wird, Muster erkennt und diese reproduziert. Bei Sprach-KIs wie ChatGPT werden Wörter nach Wahrscheinlichkeit aneinandergereit. Die Systeme sind weit genug, gute Texte zu produzieren, aber dies hat nichts damit zu tun, dass Sinn verstanden wird oder eine Agenda dahinter steckt.

Trotzdem birgt der Einsatz von KI Gefahren für die Gesellschaft. Diese ergeben sich vor allem daraus, dass die Daten, mit denen solche Systeme trainiert werden, meist gesellschaftliche Vorurteile enthalten. Diese werden dann nicht nur wiedergegeben, sondern sogar verstärkt. Wir kennen diverse Beispiele von Diskriminierungen durch KI-Anwendungen, bspw. bei der Bearbeitung von Bewerbungen oder der Gewährung von Sozialleistungen. KIs dürfen daher nur eingesetzt werden, wenn sie bestimmte Personengruppen nicht benachteiligen. Es ist auch weiterhin unerlässlich, dass wichtige Entscheidungen weiterhin von Menschen getroffen werden.

Ein weiteres Risiko ist, dass KI häufig fehlerhafte Ergebnisse produziert. Diese „Halluzinationen“ führen zu weiterer Desinformation und verstärken sich durch das KI-Training an KI generierten Texten.

KI-Entwicklung ist keine rein technischer Vorgang, sondern erfordert extrem viel menschliche Arbeit: Menschen, die in Ländern des globalen Südens, wie z.B. Kenia, Bilder labeln müssen: Straßenzüge für Navigations-KI genauso wie schlimmste Gewaltdarstellungen, die als solche gelabelt werden, damit diese später von einer KI erkannt und nicht ausgegeben werden. All dies tun sie in prekären Bedingungen, ohne psychologische Unterstützung 10 Stunden am Tag für 2 Dollar die Stunde. KI gefährdet damit unmittelbar die psychische Gesundheit von Menschen und führt globale Ausbeutungsstrukturen fort.

Zudem werden für das Training und den Einsatz von KI derzeit große Mengen an Strom und Wasser verbraucht. Daraus ergeben sich enorme Belastungen für die Umwelt, die in keinem Verhältnis zu dem von der Wirtschaft propagierten Nutzen stehen. 

Aus diesen Gründen fordern wir generell eine differenzierte Debatte, welche KI-Systeme für die Gesellschaft bei Berücksichtigung aller sozial-ökologischen Aspekte überhaupt sinnvoll und verträglich sind, und dass die Bundesregierung KI-Entwicklungen, die diesen Maßstäben nicht entsprechen, nicht weiter fördert. 

Was möchten Sie wissen von:
Portrait von Sascha Wagner
Sascha Wagner
Die Linke

Weitere Fragen an Sascha Wagner