{"id":879391,"date":"2025-09-30T14:09:22","date_gmt":"2025-09-30T12:09:22","guid":{"rendered":"https:\/\/infodienst.info\/?p=879391"},"modified":"2025-09-30T14:21:41","modified_gmt":"2025-09-30T12:21:41","slug":"luegen-aus-logik-warum-ki-nicht-anders-kann","status":"publish","type":"post","link":"https:\/\/infodienst.info\/?p=879391","title":{"rendered":"L\u00fcgen aus Logik: Warum KI nicht anders kann"},"content":{"rendered":"<p style=\"text-align: left;\"><span style=\"color: #000000;\">Die neue OpenAI-<a href=\"https:\/\/cdn.openai.com\/pdf\/d04913be-3f6f-4d2b-b283-ff432ef4aaa5\/why-language-models-hallucinate.pdf\" target=\"_blank\" rel=\"noopener\">Studie<\/a> \u00bbWhy Language Models Hallucinate\u00ab (Kalai et al., 2025) liefert erstmals eine systematische, theoretisch fundierte Erkl\u00e4rung daf\u00fcr, warum gro\u00dfe Sprachmodelle (LLMs) wie ChatGPT falsche, aber plausibel klingende Aussagen erzeugen \u2013 sogenannte Halluzinationen. Dabei zeigt sie: Halluzinationen sind kein mysteri\u00f6ses Ph\u00e4nomen, sondern ein statistisch erwartbares Nebenprodukt ihrer Trainings- und Bewertungspraxis.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Warum Halluzinationen unvermeidlich scheinen<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Die Forscher zeigen, dass Halluzinationen schon w\u00e4hrend des Pretrainings unvermeidbar entstehen, selbst wenn die Trainingsdaten fehlerfrei w\u00e4ren. Der Grund liegt im statistischen Lernprozess: LLMs lernen, eine Wahrscheinlichkeitsverteilung \u00fcber Sprache zu approximieren. Dieses Generieren ist komplexer als einfache Klassifikation \u2013 und wie bei jeder Klassifikationsaufgabe treten Fehler auf. Besonders bei \u00bbarbitr\u00e4ren Fakten\u00ab ohne erkennbare Muster (z.B. Geburtstage oder Dissertationstitel) l\u00e4sst sich das korrekte Wissen aus einmalig vorkommenden Datenpunkten nicht zuverl\u00e4ssig generalisieren. Solche \u00bbSingletons\u00ab f\u00fchren laut Theorie zwangsl\u00e4ufig zu einer Grundrate von Halluzinationen.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Warum sich Halluzinationen nach dem Training erhalten<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Selbst nach aufwendigem Feintuning verschwinden Halluzinationen nicht \u2013 im Gegenteil: Sie werden oft durch die Art der Modellbewertung verst\u00e4rkt. Wie Sch\u00fcler bei einer Multiple-Choice-Pr\u00fcfung, die bei Unsicherheit raten, neigen auch LLMs zum \u00bbRaten\u00ab, weil g\u00e4ngige Benchmarks Unsicherheit bestrafen. In Tests, die nur \u00bbrichtig\u00ab oder \u00bbfalsch\u00ab kennen, ist ein falsches, aber plausibles Statement immer besser bewertet als ein ehrliches \u00bbIch wei\u00df es nicht\u00ab. So optimieren Modelle darauf, selbst bei Unsicherheit zu antworten \u2013 und halluzinieren h\u00e4ufiger.<\/span><\/p>\n<h5 style=\"text-align: left;\"><strong><span style=\"color: #000000;\">Wege aus der Halluzinationsfalle<\/span><\/strong><\/h5>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Die Studie pl\u00e4diert f\u00fcr eine sozio-technische L\u00f6sung: Nicht mehr Halluzinations-Tests seien n\u00f6tig, sondern eine grundlegende Reform der Bewertungsma\u00dfst\u00e4be. Evaluierungen sollten etwa Teilgutschriften f\u00fcr Unsicherheits\u00e4u\u00dferungen oder explizite Konfidenzschwellen einf\u00fchren (\u00bbAntworte nur, wenn du zu 75 % sicher bist\u00ab). Solche Verfahren w\u00fcrden Modelle belohnen, wenn sie Unsicherheit angemessen ausdr\u00fccken, und sie dazu bringen, verantwortungsvoller zu antworten.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"color: #000000;\">Die OpenAI-Studie macht deutlich: Halluzinationen sind keine Fehlfunktion, sondern ein statistischer Nebeneffekt der heutigen Trainings- und Bewertungspraxis. Solange Benchmarks das \u00bbRaten\u00ab belohnen und Unsicherheit bestrafen, bleiben falsche Antworten ein strukturelles Problem. Erst wenn Bewertungsverfahren neu gedacht und Unsicherheitskommunikation belohnt wird, k\u00f6nnen Sprachmodelle lernen, zu schweigen, wenn sie nichts wissen \u2013 und damit deutlich vertrauensw\u00fcrdiger werden.<\/span><\/p>\n<p style=\"text-align: left;\"><span style=\"font-size: 8pt; color: #000000;\"><small>\u00a9 \u203aInfodienst fut\u016brum\u2039. Alle Rechte vorbehalten, all rights reserved. Nachdruck und Weitergabe an Dritte untersagt.<\/small><\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Die neue OpenAI-Studie \u00bbWhy Language Models Hallucinate\u00ab (Kalai et al., 2025) liefert erstmals eine systematische, theoretisch fundierte Erkl\u00e4rung daf\u00fcr, warum gro\u00dfe Sprachmodelle (LLMs) wie ChatGPT falsche, aber plausibel klingende Aussagen erzeugen \u2013 sogenannte Halluzinationen. Dabei zeigt sie: Halluzinationen sind kein mysteri\u00f6ses Ph\u00e4nomen, sondern ein statistisch erwartbares Nebenprodukt ihrer Trainings- und Bewertungspraxis. Warum Halluzinationen unvermeidlich scheinen&nbsp;&hellip;<\/p>\n","protected":false},"author":1,"featured_media":879392,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[61],"tags":[],"class_list":["post-879391","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-ki"],"_links":{"self":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts\/879391","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=879391"}],"version-history":[{"count":2,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts\/879391\/revisions"}],"predecessor-version":[{"id":879431,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/posts\/879391\/revisions\/879431"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=\/wp\/v2\/media\/879392"}],"wp:attachment":[{"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=879391"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=879391"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/infodienst.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=879391"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}