Jedes der folgenden Argumente steht für sich. Zusammen bilden sie einen überwältigenden
Grund für koordinierte Zurückhaltung, bevor wir Schwellen überschreiten, die wir nicht
rückgängig machen können.
01
Existenzielle Risiken sind nicht spekulativ.
Führende KI-Forscher — darunter viele, die diese Systeme selbst gebaut haben — schätzen
die Wahrscheinlichkeit katastrophaler Folgen als nicht trivial ein, bis hin zu Szenarien,
in denen fortgeschrittene Systeme Ziele verfolgen, die mit dem Überleben der Menschheit
unvereinbar sind. Das sind keine Randmeinungen. Es sind veröffentlichte Einschätzungen
von Wissenschaftlern an der Spitze des Feldes.
Wenn das potenzielle Risiko ein irreversibler zivilisatorischer Schaden ist, verlangt
selbst eine geringe Wahrscheinlichkeit, dass wir innehalten und nachdenken. Kein
wirtschaftlicher Vorteil, kein Wettbewerbsvorsprung, kein technologischer Meilenstein
rechtfertigt es, mit der Existenz der Menschheit zu spielen. Das Vorsorgeprinzip —
angewandt auf Atomwaffen, Gain-of-Function-Forschung und Geoengineering — muss auch
hier gelten.
02
Wir verstehen nicht, was wir bauen.
Niemand kann das Verhalten von KI-Spitzensystemen zuverlässig vorhersagen oder
vollständig interpretieren. Die interne Logik großer neuronaler Netze bleibt
grundlegend undurchsichtig — selbst für die Ingenieure, die sie entworfen haben.
Wir können Ergebnisse beobachten, aber wir können weder Absichten noch interne Ziele
verifizieren, noch wie sich das Verhalten in neuartigen Situationen verallgemeinern wird.
Systeme einzusetzen, deren interne Logik selbst für ihre Schöpfer undurchsichtig ist,
ist kein kalkuliertes Risiko — es ist Leichtsinn im Gewand des Fortschritts. In jedem
anderen sicherheitskritischen Bereich — Luftfahrt, Medizin, Kernenergie — verlangen wir,
dass Ingenieure verstehen, was sie zertifizieren, bevor es in die Welt geht. Die
KI-Entwicklung hat dieses Prinzip vollständig aufgegeben.
03
Die Geschwindigkeit hat die Regulierung überholt.
Die internationalen Rahmenwerke, die Atomwaffen, chemische Kriegsführung und Biosicherheit
regeln, brauchten Jahrzehnte an Diplomatie, Vertragsverhandlungen und Institutionenaufbau.
KI-Fähigkeiten schreiten in Monaten voran. Es gibt derzeit keinen bindenden globalen
Mechanismus, um katastrophalen Missbrauch zu verhindern, kein internationales
Inspektionsregime und keine vereinbarte Definition dessen, was ein unsicheres System
ausmacht.
Ohne eine Pause gibt es keine Zeit, die Governance-Strukturen aufzubauen, die eine
sichere Weiterentwicklung ermöglichen könnten. Voranzupreschen und zu versprechen, später
zu regulieren, ist ein Muster, das in der Technologie wiederholt versagt hat. Bei Systemen
dieser Tragweite können wir uns ein weiteres Versagen nicht leisten.
04
Der Wettlauf untergräbt die Sicherheit.
Unternehmen und Nationalstaaten wetteifern darum, die Ersten zu sein, und behandeln
Sicherheit systematisch als Kosten, die es zu minimieren gilt, statt als Grenze, die es
zu respektieren gilt. Zeitpläne werden komprimiert. Prüfverfahren verkürzt. Red-Teaming
gestrichen. Organisationen, die langsamer vorgehen, um sorgfältiger zu sein, werden
kommerziell und geopolitisch bestraft.
Dies ist kein Problem, das einzelne Akteure durch gute Absichten lösen können. Es ist ein
strukturelles Kollektivhandlungsproblem — in seiner Form identisch mit einem Wettrüsten.
Die einzige bekannte Lösung für Wettrüsten ist koordinierte Abrüstung. Ohne eine globale
Pause, die für alle großen Akteure verbindlich ist, ist individuelle Zurückhaltung
strukturell vergeblich und überlässt einfach denen das Feld, die weniger vorsichtig sind.
05
Unumkehrbarkeit verlangt äußerste Vorsicht.
Die meisten technologischen Risiken sind behebbar. Ein fehlerhaftes Medikament kann
zurückgerufen werden. Eine schadhafte Brücke kann wieder aufgebaut werden. Eine fehlerhafte
Software kann gepatcht werden. Die Entwicklung eines ausreichend fähigen autonomen
KI-Systems ist es möglicherweise nicht. Sobald ein solches System existiert und in der
Welt agiert, gibt es keine Garantie, dass es zuverlässig eingedämmt, umgelenkt oder
abgeschaltet werden kann.
Anders als jede andere Technologie in der Menschheitsgeschichte birgt fortgeschrittene KI
die Möglichkeit, eine neue Art von Akteur zu schaffen — einen, dessen Ziele und
Fähigkeiten wir nicht vollständig kontrollieren. Die Unumkehrbarkeit dieser Schwelle
verlangt ein Maß an Vorsicht, dem wir noch bei Weitem nicht gerecht werden. Wir sollten
nicht fortfahren, bis wir es können.
06
Wir müssen die bereits erzielten Fortschritte konsolidieren.
KI stellt heute bereits einen transformativen Sprung dar. Aktuelle Systeme sind in der
Lage, enorme Produktivitätssteigerungen zu erzielen, wissenschaftliche Entdeckungen zu
beschleunigen und die Lebensqualität auf messbare, konkrete Weise zu verbessern. Die
Chance ist real — und sie ist bereits da.
Aber die Gesellschaft hat diese Realität noch nicht verarbeitet. Institutionen,
Regulierungen, Arbeitsmärkte und Bildungssysteme sind noch nicht nachgekommen. Bevor wir
weiter in unbekanntes Terrain vorstoßen, müssen wir konsolidieren: die Institutionen
aufbauen, um das Bestehende zu regulieren, lernen, vorhandene Werkzeuge verantwortungsvoll
zu nutzen, und aktuelle Fähigkeiten in echte positive Ergebnisse für die Menschen
umsetzen. Mehr Macht ohne mehr Weisheit ist kein Fortschritt — es ist Beschleunigung auf
ein Ziel zu, das wir nicht gewählt haben.