Alexander Stannigelwww.alexander-stannigel.euBeiträge
Chronikbeitrag
Alexander Stannigel — hat drei Artikel geteilt:Sonnabend, 1. November 2025
Aktueller Stand von «KI»: Gehen sie bitte weiter! Es gibt hier nichts zu sehen!
Das kann ja gar nicht schiefgehen, wenn uns das jetzt überall ungefragt auf's Auge gedrückt wird!
Die LLM-Technologie ist ausgereizt. Die dem Konzept innewohnenden Probleme sind nicht lösbar. Mehr Daten und Rechenleistung ändern daran rein gar nichts.
«Sie fragen ChatGPT nach dem Wahlausgang, lassen sich von Gemini die Nachrichten zusammenfassen oder bitten Perplexity um Hintergründe zum Nahostkonflikt: Millionen Deutsche vertrauen täglich auf KI-Chatbots als Informationsquellen. 800 Millionen Menschen weltweit nutzen allein ChatGPT jede Woche. […] ChatGPT, Gemini und andere Chatbots erfinden bis zu 40 Prozent ihrer Antworten und stellen sie als Fakten dar.»
(…)
«Zum einen basieren KI-Antworten mitunter auf veralteten Trainingsdaten. Chatbots wie ChatGPT wurden mit Texten trainiert, die mehrere Monate oder Jahre alt sind - ähnlich wie bei einer Suchmaschine, die seit drei Jahren nicht mehr aktualisiert wurde. Was damals stimmte, kann heute längst überholt sein.Zum anderen gibt es echte Halluzinationen: Die KI reimt sich fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert – auch wenn diese faktisch falsch sind. Sie erfindet dann mitunter sogar Quellen, die nicht existieren, oder verknüpft Fakten, die nicht zusammengehören.»
(…)
«Chatbots behaupten regelmäßig, ihre erfundenen Informationen stammten von der ARD, dem ZDF oder der tagesschau, obwohl diese Redaktionen nie darüber berichtet haben - oder völlig anders. […] Sie haben kein Faktenwissen, sondern nur statistische Muster. […] bleiben die Halluzinationen ein ungelöstes Grundproblem der Technologie.»
«Ihre Studie vergleicht die Reaktionen von Sprachmodellen und Menschen auf Gewissensfragen oder Beziehungsprobleme. Demnach neigen KI-Systeme dazu, Nutzerinnen und Nutzern zu schmeicheln. Die Chatbots finden teils absurde Entschuldigungen für manipulatives oder bedrohliches Verhalten und bestärken Menschen in der Überzeugung, sie hätten nichts falsch gemacht. ... Coaching, Lebenshilfe und Therapie zählen zu den zentralen Einsatzzwecken von KI-Systemen. Millionen Nutzerinnen und Nutzer wenden sich mit psychischen Problemen selbstverständlich an Chat-GPT oder Googles Gemini. Seit Monaten häufen sich Fälle, in denen Chatbots Menschen in Wahnvorstellungen bestärken oder Suizidabsichten unterstützen.»
(…)
«Im Schnitt bestätigen die Chatbots Nutzerinnen und Nutzer um 50 Prozent öfter in ihren Ansichten als Menschen, sogar wenn die Fragen auf eindeutig problematische oder gefährliche Verhaltensweisen schließen lassen. Im zweiten Teil der Studie sollten die Probanden die KI beurteilen. Offenbar haben die meisten Menschen wenig Interesse an Widerspruch. Schmeichlerische Sprachmodelle schneiden in allen Kategorien signifikant besser ab. […] Wenn ein Chatbot bei realen oder hypothetischen zwischenmenschlichen Konflikten versichert, dass man alles richtig gemacht hat, beurteilen deutlich mehr Menschen ihr Verhalten als korrekt. Gleichzeitig sinkt die Bereitschaft, den Streit zu schlichten oder die Beziehung zu retten.»
(…)
«[Die Wissenschaftler] fürchten, dass KI-Konzerne Sprachmodelle genau darauf optimieren. Bereits im April entschuldigte sich Open AI für ein Update des damals aktuellen Modells GPT-4o, das zu besonders anbiedernden Antworten führte. Der Nachfolger GPT-5 schneidet in der Studie aber kaum besser ab.»
«Die Gründe für falsche Informationen liegen in den KI-Modellen selbst. Diese verknüpfen bisweilen etwa Wissen falsch. So hat ein Chatbot bereits aus einem Gerichtsreporter einen Mörder gemacht, weil die KI Namen und Artikel zwar in Einklang brachte – aber in völlig falscher Weise. Antworten beruhen auf Wahrscheinlichkeiten und der gelernten Nähe von Informationen. Weil Reporter und Gerichtsprozess aus ein und derselben Quelle stammen, also nah beieinander genannt werden, lernt die KI den Zusammenhang falsch. Sie versteht die Konzepte Artikel, Berichterstatter und Vorfall nicht. Eins und eins kann bei KI auch mal drei ergeben. Und da ein KI-Modell nicht zählen kann, ist es auch noch immer ein Problem, die richtige Anzahl an Es im Wort Erdbeere wiederzugeben. Klappt es doch, liegt das daran, dass das Modell die Information gefunden hat, nicht jedoch daran, dass es plötzlich zählen kann.»
«Ein weiteres Problem können Trainingsdaten sein, […] Für die Trainingsdaten wird bekannterweise alles herangezogen, was verfügbar ist. […]»
«KI-Modelle sind zudem bestrebt, immer Antworten zu finden, die dem Nutzer gefallen und mit denen sie am wahrscheinlichsten richtig liegen. Das kann ebenfalls dazu führen, dass sie sich lieber etwas ausdenken, als zu sagen, dass sie etwas nicht wissen, [was schlicht mit dem Aufbau von KI-Modellen zusammenhängt.] […] Es ist wie ein Mensch bei einem Multiple-Choice-Test lieber irgendwas auswählt, als gar kein Kreuz zu setzen. Kein Kreuz würde bedeuten, dass man definitiv falsch liegt, ein Kreuz erhöht die Chancen, richtigzuliegen, je nach Anzahl der Auswahlmöglichkeiten.»
«[…] [Konsumenten gaben bei falschen Informationen nicht nur den Chatbots die Schuld], sondern auch den verlinkten Quellen – selbst wenn diese nichts mit den Fehlern zu tun hätten.»
«[…] Antworten [von KI-Modellen] sind nicht generell reproduzierbar. Wenn ein Chatbot sagt, die Banane ist blau, heißt das nicht, dass auch bei allen anderen Fragen zu Bananen diese falsche Information herauskommt. In einem so einfachen Fall ließe sich dem KI-Modell mitgeben, dass der Fakt Banane=blau nicht stimmt und nicht wieder gesagt werden darf. Dabei kann aber auch herauskommen, dass das Modell in der Folge Gespräche über Bananen verweigert. Die Kontrollmöglichkeiten sind eingeschränkt.»