Eine offene Position

Plädoyer für eine globale Pause der fortgeschrittenen KI-Entwicklung

Die Entwicklung fortgeschrittener KI ist das folgenreichste technologische Wagnis der Menschheitsgeschichte. Der einzig verantwortungsvolle Weg ist eine koordinierte globale Pause — um zu verstehen, was wir bauen, bevor es zu spät ist, anders zu wählen.

Argumente lesen Unsere Position
Scrollen

Wir sind nicht gegen künstliche Intelligenz.
Wir sind gegen Leichtsinn.

KI hat das Potenzial, die transformativste Technologie aller Zeiten zu werden. Genau deshalb erfordert sie mehr Vorsicht, mehr Regulierung und mehr internationale Koordination als jede Technologie zuvor — nicht weniger. Diese Seite präsentiert die zentralen Argumente, warum eine globale Pause der fortgeschrittenen KI-Entwicklung nicht nur vernünftig, sondern notwendig ist.

Die Argumente

Sechs Gründe, warum die Welt jetzt pausieren muss.

Jedes der folgenden Argumente steht für sich. Zusammen bilden sie einen überwältigenden Grund für koordinierte Zurückhaltung, bevor wir Schwellen überschreiten, die wir nicht rückgängig machen können.

01

Existenzielle Risiken sind nicht spekulativ.

Führende KI-Forscher — darunter viele, die diese Systeme selbst gebaut haben — schätzen die Wahrscheinlichkeit katastrophaler Folgen als nicht trivial ein, bis hin zu Szenarien, in denen fortgeschrittene Systeme Ziele verfolgen, die mit dem Überleben der Menschheit unvereinbar sind. Das sind keine Randmeinungen. Es sind veröffentlichte Einschätzungen von Wissenschaftlern an der Spitze des Feldes.

Wenn das potenzielle Risiko ein irreversibler zivilisatorischer Schaden ist, verlangt selbst eine geringe Wahrscheinlichkeit, dass wir innehalten und nachdenken. Kein wirtschaftlicher Vorteil, kein Wettbewerbsvorsprung, kein technologischer Meilenstein rechtfertigt es, mit der Existenz der Menschheit zu spielen. Das Vorsorgeprinzip — angewandt auf Atomwaffen, Gain-of-Function-Forschung und Geoengineering — muss auch hier gelten.

02

Wir verstehen nicht, was wir bauen.

Niemand kann das Verhalten von KI-Spitzensystemen zuverlässig vorhersagen oder vollständig interpretieren. Die interne Logik großer neuronaler Netze bleibt grundlegend undurchsichtig — selbst für die Ingenieure, die sie entworfen haben. Wir können Ergebnisse beobachten, aber wir können weder Absichten noch interne Ziele verifizieren, noch wie sich das Verhalten in neuartigen Situationen verallgemeinern wird.

Systeme einzusetzen, deren interne Logik selbst für ihre Schöpfer undurchsichtig ist, ist kein kalkuliertes Risiko — es ist Leichtsinn im Gewand des Fortschritts. In jedem anderen sicherheitskritischen Bereich — Luftfahrt, Medizin, Kernenergie — verlangen wir, dass Ingenieure verstehen, was sie zertifizieren, bevor es in die Welt geht. Die KI-Entwicklung hat dieses Prinzip vollständig aufgegeben.

03

Die Geschwindigkeit hat die Regulierung überholt.

Die internationalen Rahmenwerke, die Atomwaffen, chemische Kriegsführung und Biosicherheit regeln, brauchten Jahrzehnte an Diplomatie, Vertragsverhandlungen und Institutionenaufbau. KI-Fähigkeiten schreiten in Monaten voran. Es gibt derzeit keinen bindenden globalen Mechanismus, um katastrophalen Missbrauch zu verhindern, kein internationales Inspektionsregime und keine vereinbarte Definition dessen, was ein unsicheres System ausmacht.

Ohne eine Pause gibt es keine Zeit, die Governance-Strukturen aufzubauen, die eine sichere Weiterentwicklung ermöglichen könnten. Voranzupreschen und zu versprechen, später zu regulieren, ist ein Muster, das in der Technologie wiederholt versagt hat. Bei Systemen dieser Tragweite können wir uns ein weiteres Versagen nicht leisten.

04

Der Wettlauf untergräbt die Sicherheit.

Unternehmen und Nationalstaaten wetteifern darum, die Ersten zu sein, und behandeln Sicherheit systematisch als Kosten, die es zu minimieren gilt, statt als Grenze, die es zu respektieren gilt. Zeitpläne werden komprimiert. Prüfverfahren verkürzt. Red-Teaming gestrichen. Organisationen, die langsamer vorgehen, um sorgfältiger zu sein, werden kommerziell und geopolitisch bestraft.

Dies ist kein Problem, das einzelne Akteure durch gute Absichten lösen können. Es ist ein strukturelles Kollektivhandlungsproblem — in seiner Form identisch mit einem Wettrüsten. Die einzige bekannte Lösung für Wettrüsten ist koordinierte Abrüstung. Ohne eine globale Pause, die für alle großen Akteure verbindlich ist, ist individuelle Zurückhaltung strukturell vergeblich und überlässt einfach denen das Feld, die weniger vorsichtig sind.

05

Unumkehrbarkeit verlangt äußerste Vorsicht.

Die meisten technologischen Risiken sind behebbar. Ein fehlerhaftes Medikament kann zurückgerufen werden. Eine schadhafte Brücke kann wieder aufgebaut werden. Eine fehlerhafte Software kann gepatcht werden. Die Entwicklung eines ausreichend fähigen autonomen KI-Systems ist es möglicherweise nicht. Sobald ein solches System existiert und in der Welt agiert, gibt es keine Garantie, dass es zuverlässig eingedämmt, umgelenkt oder abgeschaltet werden kann.

Anders als jede andere Technologie in der Menschheitsgeschichte birgt fortgeschrittene KI die Möglichkeit, eine neue Art von Akteur zu schaffen — einen, dessen Ziele und Fähigkeiten wir nicht vollständig kontrollieren. Die Unumkehrbarkeit dieser Schwelle verlangt ein Maß an Vorsicht, dem wir noch bei Weitem nicht gerecht werden. Wir sollten nicht fortfahren, bis wir es können.

06

Wir müssen die bereits erzielten Fortschritte konsolidieren.

KI stellt heute bereits einen transformativen Sprung dar. Aktuelle Systeme sind in der Lage, enorme Produktivitätssteigerungen zu erzielen, wissenschaftliche Entdeckungen zu beschleunigen und die Lebensqualität auf messbare, konkrete Weise zu verbessern. Die Chance ist real — und sie ist bereits da.

Aber die Gesellschaft hat diese Realität noch nicht verarbeitet. Institutionen, Regulierungen, Arbeitsmärkte und Bildungssysteme sind noch nicht nachgekommen. Bevor wir weiter in unbekanntes Terrain vorstoßen, müssen wir konsolidieren: die Institutionen aufbauen, um das Bestehende zu regulieren, lernen, vorhandene Werkzeuge verantwortungsvoll zu nutzen, und aktuelle Fähigkeiten in echte positive Ergebnisse für die Menschen umsetzen. Mehr Macht ohne mehr Weisheit ist kein Fortschritt — es ist Beschleunigung auf ein Ziel zu, das wir nicht gewählt haben.

Die Pause ist nicht das Ende der KI. Sie ist die Voraussetzung dafür, dass KI gelingt.

Ein koordinierter globaler Stopp der Entwicklung von Spitzenmodellen — überprüfbar, zeitlich begrenzt und an konkrete Sicherheitsmaßstäbe geknüpft — ist der einzige Weg, der der Menschheit eine echte Wahl über ihre Zukunft gibt.

Argumente lesen