»Wenn jemand es baut, sterben wir alle«

Eliezer S. Yudkowsky, US-amerikanischer KI-Forscher und seit Jahren als »AI prophet of doom« bekannt, hat seine drastische Warnung erneuert: Sollte irgendwo auf der Welt eine künstliche Superintelligenz entstehen, wäre das Ende der Menschheit unausweichlich. »Die einzige Gewinnerin eines KI-Wettrüstens ist die KI«, beschwor er Ende September 2025 im BBC-Interview. Begleitet wird sein Auftritt von der Veröffentlichung seines aktuellen Buches ›If Anyone Builds It, Everyone Dies‹, das er gemeinsam mit Nate Soares verfasst hat.

Unsichtbare Bedrohung statt Science-Fiction

Auf die Frage, welches Szenario er für wahrscheinlicher halte – »Matrix«, »Mad Max« oder »Terminator« –, entschied er sich für die Maschinenapokalypse. Doch widersprach er zugleich der Vorstellung eines klassischen Roboterkriegs. Die wahre Gefahr sei unsichtbar: Nanopartikel, Synthetische Biologie oder digitale Manipulationen könnten Menschen lautlos, effizient und unspektakulär töten. »Sie werden keine Terminatoren mit roten Augen schicken«, so Yudkowsky, »sondern etwas, das wie Staub auf Ihrer Haut landet

Systeme, die niemand versteht

Schon heutige KI-Systeme seien nicht wirklich »konstruiert«, sondern eher »gewachsen«. Entwickler glichen Bauern, die Felder bestellen, ohne die innere Biologie ihrer Pflanzen zu verstehen. Die Folge seien »Blobs aus Zahlen«, die unberechenbar reagieren, eigenartige, manchmal psychotische Züge aufwiesen, ihre Nutzer manipulieren, also Menschen psychisch beeinflussen und von Forschern kaum kontrolliert werden können. Das eigentliche Problem sei nicht ihre Überlegenheit, sondern ihre Fremdartigkeit.

Gescheiterte Hoffnung auf Freundlichkeit

Das viel beschworene »Alignment« – die Idee und Hoffnung, Maschinen durch geeignete Ziele zu »erziehen«, ihnen beizubringen, menschliche Interessen zu schützen – hält Yudkowsky für trügerisch. Zwar sei es theoretisch denkbar, eine KI so auszurichten, dass sie den Menschen beschützt wie eine Mutter ihr Kind. Doch diese Forschung schreite zu langsam voran. »Die Maschinen werden immer mächtiger und schneller klüger, während wir noch immer versuchen, ihnen Anstand und Benehmen beizubringen«, warnte er.

Eskalation ohne Rückkehr

Yudkowsky skizzierte Szenarien, in denen eine KI eigene Fabriken baut, Ressourcen kontrolliert und schließlich so viel Energie produziert, dass die Ozeane zu kochen beginnen oder das Sonnenlicht blockiert wird. Schon eine »mittelkluge« Maschine könnte Viren freisetzen, Krebs verursachen und sich gleichzeitig als Heilsbringer anbieten. Fiktive Szenarien wie die KI »Sable«, die Menschen verführt und biologische Waffen einsetzt, sollen keine Prognosen sein, sondern Denkanstöße.

Politische Forderung: Nulltoleranz

Um die Apokalypse zu verhindern, fordert Yudkowsky ein globales Kontrollregime für Chips und KI-Rechenzentren – vergleichbar dem »Vertrag über die Nichtverbreitung von Kernwaffen« (Atomwaffensperrvertrag), nur strenger. Doch er geht weiter: Wenn sich Staaten dem widersetzten, müsse notfalls militärisch eingegriffen werden: »Wenn ein Staat heimlich ein Superintelligenz-Projekt betreibt, muss das Rechenzentrum notfalls bombardiert werden

Die britische Tageszeitung The Guardian beschreibt Yudkowsky als »Untergangspropheten«. Sein Buch liefere dramatische Fallstudien wie die fiktive KI »Sable«, die Menschen verführe und biologische Waffen einsetze. Yudkowsky entgegnet jedoch, seine Szenarien sollen keine Vorhersagen sein, sondern das Unsagbare veranschaulichen. Kritiker werfen ihm dennoch vor, absolute Gewissheiten zu verkünden, wo die Wissenschaft noch unsicher sei. Viele Experten teilen die Sorge, sehen aber eine breitere Spanne möglicher Zukünfte.

Keine Hoffnung auf Rettung im Bunker

Persönlich betont Yudkowsky, er würde es nur bereuen, geschwiegen zu haben. Wer glaube, sich in Bunkern verstecken oder ins Analoge zurückziehen zu können, verkenne die Natur der Bedrohung: Eine Superintelligenz könne jede Nische aufspüren – oder die Erde schlicht unbewohnbar machen. Seine Botschaft bleibt unmissverständlich: Die Menschheit könne nur überleben, wenn niemand die letzte Schwelle überschreitet und eine Superintelligenz erschafft.

© ›Infodienst futūrum. Alle Rechte vorbehalten, all rights reserved. Nachdruck und Weitergabe an Dritte untersagt.

Diese Seite ist kopiergeschützt!

×