{"id":861332,"date":"2025-09-25T13:32:17","date_gmt":"2025-09-25T11:32:17","guid":{"rendered":"https:\/\/infodienst.info\/?p=861332"},"modified":"2025-09-25T13:32:17","modified_gmt":"2025-09-25T11:32:17","slug":"wenn-jemand-es-baut-sterben-wir-alle","status":"publish","type":"post","link":"https:\/\/infodienst.info\/?p=861332","title":{"rendered":"\u00bbWenn jemand es baut, sterben wir alle\u00ab"},"content":{"rendered":"<p style=\"text-align: left;\"><span style=\"color: #000000;\">Eliezer S. Yudkowsky, US-amerikanischer KI-Forscher und seit Jahren als \u00bbAI prophet of doom\u00ab bekannt, hat seine drastische Warnung erneuert: Sollte irgendwo auf der Welt eine k\u00fcnstliche Superintelligenz entstehen, w\u00e4re das Ende der Menschheit unausweichlich. \u00bb<em>Die einzige Gewinnerin eines KI-Wettr\u00fcstens ist die KI<\/em>\u00ab, beschwor er Ende September 2025 im <a href=\"https:\/\/www.youtube.com\/watch?v=A895XUFscYU&amp;t=506s\" target=\"_blank\" rel=\"noopener\">BBC-Interview<\/a>. Begleitet wird sein Auftritt von der Ver\u00f6ffentlichung seines aktuellen <a href=\"https:\/\/www.amazon.de\/Anyone-Builds-Everyone-Dies-Superhuman-ebook\/dp\/B0DZ3PZF6G\" target=\"_blank\" rel=\"noopener\">Buches<\/a> \u203aIf Anyone Builds It, Everyone Dies\u2039, das er gemeinsam mit Nate Soares verfasst hat.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Unsichtbare Bedrohung statt Science-Fiction<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Auf die Frage, welches Szenario er f\u00fcr wahrscheinlicher halte \u2013 \u00bbMatrix\u00ab, \u00bbMad Max\u00ab oder \u00bbTerminator\u00ab \u2013, entschied er sich f\u00fcr die Maschinenapokalypse. Doch widersprach er zugleich der Vorstellung eines klassischen Roboterkriegs. Die wahre Gefahr sei unsichtbar: Nanopartikel, Synthetische Biologie oder digitale Manipulationen k\u00f6nnten Menschen lautlos, effizient und unspektakul\u00e4r t\u00f6ten. \u00bb<em>Sie werden keine Terminatoren mit roten Augen schicken<\/em>\u00ab, so Yudkowsky, \u00bb<em>sondern etwas, das wie Staub auf Ihrer Haut landet<\/em>.\u00ab<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Systeme, die niemand versteht<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Schon heutige KI-Systeme seien nicht wirklich \u00bbkonstruiert\u00ab, sondern eher \u00bbgewachsen\u00ab. Entwickler glichen Bauern, die Felder bestellen, ohne die innere Biologie ihrer Pflanzen zu verstehen. Die Folge seien \u00bbBlobs aus Zahlen\u00ab, die unberechenbar reagieren, eigenartige, manchmal psychotische Z\u00fcge aufwiesen, ihre Nutzer manipulieren, also Menschen psychisch beeinflussen und von Forschern kaum kontrolliert werden k\u00f6nnen. Das eigentliche Problem sei nicht ihre \u00dcberlegenheit, sondern ihre Fremdartigkeit.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Gescheiterte Hoffnung auf Freundlichkeit<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Das viel beschworene \u00bbAlignment\u00ab \u2013 die Idee und Hoffnung, Maschinen durch geeignete Ziele zu \u00bberziehen\u00ab, ihnen beizubringen, menschliche Interessen zu sch\u00fctzen \u2013 h\u00e4lt Yudkowsky f\u00fcr tr\u00fcgerisch. Zwar sei es theoretisch denkbar, eine KI so auszurichten, dass sie den Menschen besch\u00fctzt wie eine Mutter ihr Kind. Doch diese Forschung schreite zu langsam voran. \u00bb<em>Die Maschinen werden immer m\u00e4chtiger und schneller kl\u00fcger, w\u00e4hrend wir noch immer versuchen, ihnen Anstand und Benehmen beizubringen<\/em>\u00ab, warnte er.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Eskalation ohne R\u00fcckkehr<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Yudkowsky skizzierte Szenarien, in denen eine KI eigene Fabriken baut, Ressourcen kontrolliert und schlie\u00dflich so viel Energie produziert, dass die Ozeane zu kochen beginnen oder das Sonnenlicht blockiert wird. Schon eine \u00bbmittelkluge\u00ab Maschine k\u00f6nnte Viren freisetzen, Krebs verursachen und sich gleichzeitig als Heilsbringer anbieten. Fiktive Szenarien wie die KI \u00bbSable\u00ab, die Menschen verf\u00fchrt und biologische Waffen einsetzt, sollen keine Prognosen sein, sondern Denkanst\u00f6\u00dfe.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Politische Forderung: Nulltoleranz<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Um die Apokalypse zu verhindern, fordert Yudkowsky ein globales Kontrollregime f\u00fcr Chips und KI-Rechenzentren \u2013 vergleichbar dem \u00bbVertrag \u00fcber die Nichtverbreitung von Kernwaffen\u00ab (Atomwaffensperrvertrag), nur strenger. Doch er geht weiter: Wenn sich Staaten dem widersetzten, m\u00fcsse notfalls milit\u00e4risch eingegriffen werden: \u00bb<em>Wenn ein Staat heimlich ein Superintelligenz-Projekt betreibt, muss das Rechenzentrum notfalls bombardiert werden<\/em>.\u00ab<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Die britische Tageszeitung The Guardian beschreibt Yudkowsky als \u00bbUntergangspropheten\u00ab. Sein Buch liefere dramatische Fallstudien wie die fiktive KI \u00bbSable\u00ab, die Menschen verf\u00fchre und biologische Waffen einsetze. Yudkowsky entgegnet jedoch, seine Szenarien sollen keine Vorhersagen sein, sondern das Unsagbare veranschaulichen. Kritiker werfen ihm dennoch vor, absolute Gewissheiten zu verk\u00fcnden, wo die Wissenschaft noch unsicher sei. Viele Experten teilen die Sorge, sehen aber eine breitere Spanne m\u00f6glicher Zuk\u00fcnfte.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Keine Hoffnung auf Rettung im Bunker<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Pers\u00f6nlich betont Yudkowsky, er w\u00fcrde es nur bereuen, geschwiegen zu haben. Wer glaube, sich in Bunkern verstecken oder ins Analoge zur\u00fcckziehen zu k\u00f6nnen, verkenne die Natur der Bedrohung: Eine Superintelligenz k\u00f6nne jede Nische aufsp\u00fcren \u2013 oder die Erde schlicht unbewohnbar machen. Seine Botschaft bleibt unmissverst\u00e4ndlich: Die Menschheit k\u00f6nne nur \u00fcberleben, wenn niemand die letzte Schwelle \u00fcberschreitet und eine Superintelligenz erschafft.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"font-size: 8pt; color: #000000;\"><small>\u00a9 \u203aInfodienst fut\u016brum. Alle Rechte vorbehalten, all rights reserved. Nachdruck und Weitergabe an Dritte untersagt.<\/small><\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Eliezer S. Yudkowsky, US-amerikanischer KI-Forscher und seit Jahren als \u00bbAI prophet of doom\u00ab bekannt, hat seine drastische Warnung erneuert: Sollte irgendwo auf der Welt eine k\u00fcnstliche Superintelligenz entstehen, w\u00e4re das Ende der Menschheit unausweichlich. \u00bbDie einzige Gewinnerin eines KI-Wettr\u00fcstens ist die KI\u00ab, beschwor er Ende September 2025 im BBC-Interview. Begleitet wird sein Auftritt von der&nbsp;&hellip;<\/p>\n","protected":false},"author":1,"featured_media":861333,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[61],"tags":[],"class_list":["post-861332","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-ki"],"_links":{"self":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts\/861332","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=861332"}],"version-history":[{"count":1,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts\/861332\/revisions"}],"predecessor-version":[{"id":861334,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts\/861332\/revisions\/861334"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/media\/861333"}],"wp:attachment":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=861332"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=861332"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=861332"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}