Alexander Stannigel www.alexander-stannigel.eu
Alexander Stannigel www.alexander-stannigel.eu Startseite

Werte Besucherin, Werter Besucher, Willkommen!

  • Alexander Stannigel📖 Emoji (Open book) hat drei Artikel geteilt: Sonnabend, 1. November 2025
    Aktueller Stand von «KI»: Gehen sie bitte weiter! Es gibt hier nichts zu sehen! 👀 Emoji (Eyes)
    Das kann ja gar nicht schiefgehen, wenn uns das jetzt überall ungefragt auf's Auge gedrückt wird! 🥵 Emoji (Overheated face) 🥶 Emoji (Freezing face)
    Die LLM-Technologie ist ausgereizt. Die dem Konzept innewohnenden Probleme sind nicht lösbar. Mehr Daten und Rechenleistung ändern daran rein gar nichts.
    Studie: KI-Chatbots lügen bei 40 Prozent der Antworten Tagesschau · Wissen · Technologie · Künstliche Intelligenz | Jörg Schieb · Montag, 27. Oktober 2025
    «Sie fragen ChatGPT nach dem Wahlausgang, lassen sich von Gemini die Nachrichten zusammenfassen oder bitten Perplexity um Hintergründe zum Nahostkonflikt: Millionen Deutsche vertrauen täglich auf KI-Chatbots als Informationsquellen. 800 Millionen Menschen weltweit nutzen allein ChatGPT jede Woche. […] ChatGPT, Gemini und andere Chatbots erfinden bis zu 40 Prozent ihrer Antworten und stellen sie als Fakten dar.»
    (…)
    «Zum einen basieren KI-Antworten mitunter auf veralteten Trainingsdaten. Chatbots wie ChatGPT wurden mit Texten trainiert, die mehrere Monate oder Jahre alt sind - ähnlich wie bei einer Suchmaschine, die seit drei Jahren nicht mehr aktualisiert wurde. Was damals stimmte, kann heute längst überholt sein.Zum anderen gibt es echte Halluzinationen: Die KI reimt sich fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert – auch wenn diese faktisch falsch sind. Sie erfindet dann mitunter sogar Quellen, die nicht existieren, oder verknüpft Fakten, die nicht zusammengehören.»
    (…)
    «Chatbots behaupten regelmäßig, ihre erfundenen Informationen stammten von der ARD, dem ZDF oder der tagesschau, obwohl diese Redaktionen nie darüber berichtet haben - oder völlig anders. […] Sie haben kein Faktenwissen, sondern nur statistische Muster. […] bleiben die Halluzinationen ein ungelöstes Grundproblem der Technologie.»
    (…)
    Studie zu Chatbots: ChatGPT taugt nicht als moralische Instanz Süddeutsche Zeitung · Wirtschaft · Künstliche Intelligenz | Simon Berlin · Montag, 27. Oktober 2025
    «Ihre Studie vergleicht die Reaktionen von Sprachmodellen und Menschen auf Gewissensfragen oder Beziehungsprobleme. Demnach neigen KI-Systeme dazu, Nutzerinnen und Nutzern zu schmeicheln. Die Chatbots finden teils absurde Entschuldigungen für manipulatives oder bedrohliches Verhalten und bestärken Menschen in der Überzeugung, sie hätten nichts falsch gemacht. ... Coaching, Lebenshilfe und Therapie zählen zu den zentralen Einsatzzwecken von KI-Systemen. Millionen Nutzerinnen und Nutzer wenden sich mit psychischen Problemen selbstverständlich an Chat-GPT oder Googles Gemini. Seit Monaten häufen sich Fälle, in denen Chatbots Menschen in Wahnvorstellungen bestärken oder Suizidabsichten unterstützen.»
    (…)
    «Im Schnitt bestätigen die Chatbots Nutzerinnen und Nutzer um 50 Prozent öfter in ihren Ansichten als Menschen, sogar wenn die Fragen auf eindeutig problematische oder gefährliche Verhaltensweisen schließen lassen. Im zweiten Teil der Studie sollten die Probanden die KI beurteilen. Offenbar haben die meisten Menschen wenig Interesse an Widerspruch. Schmeichlerische Sprachmodelle schneiden in allen Kategorien signifikant besser ab. […] Wenn ein Chatbot bei realen oder hypothetischen zwischenmenschlichen Konflikten versichert, dass man alles richtig gemacht hat, beurteilen deutlich mehr Menschen ihr Verhalten als korrekt. Gleichzeitig sinkt die Bereitschaft, den Streit zu schlichten oder die Beziehung zu retten.»
    (…)
    «[Die Wissenschaftler] fürchten, dass KI-Konzerne Sprachmodelle genau darauf optimieren. Bereits im April entschuldigte sich Open AI für ein Update des damals aktuellen Modells GPT-4o, das zu besonders anbiedernden Antworten führte. Der Nachfolger GPT-5 schneidet in der Studie aber kaum besser ab.»
    (…)
    KI und die Halluzinationen: Warum sind so viele Antworten falsch? Heise Online · Künstliche Intelligenz | Eva-Maria Weiß · Mittwoch, 29. Oktober 2025
    (…)
    «Die Gründe für falsche Informationen liegen in den KI-Modellen selbst. Diese verknüpfen bisweilen etwa Wissen falsch. So hat ein Chatbot bereits aus einem Gerichtsreporter einen Mörder gemacht, weil die KI Namen und Artikel zwar in Einklang brachte – aber in völlig falscher Weise. Antworten beruhen auf Wahrscheinlichkeiten und der gelernten Nähe von Informationen. Weil Reporter und Gerichtsprozess aus ein und derselben Quelle stammen, also nah beieinander genannt werden, lernt die KI den Zusammenhang falsch. Sie versteht die Konzepte Artikel, Berichterstatter und Vorfall nicht. Eins und eins kann bei KI auch mal drei ergeben. Und da ein KI-Modell nicht zählen kann, ist es auch noch immer ein Problem, die richtige Anzahl an Es im Wort Erdbeere wiederzugeben. Klappt es doch, liegt das daran, dass das Modell die Information gefunden hat, nicht jedoch daran, dass es plötzlich zählen kann.»
    «Ein weiteres Problem können Trainingsdaten sein, […] Für die Trainingsdaten wird bekannterweise alles herangezogen, was verfügbar ist. […]»
    «KI-Modelle sind zudem bestrebt, immer Antworten zu finden, die dem Nutzer gefallen und mit denen sie am wahrscheinlichsten richtig liegen. Das kann ebenfalls dazu führen, dass sie sich lieber etwas ausdenken, als zu sagen, dass sie etwas nicht wissen, [was schlicht mit dem Aufbau von KI-Modellen zusammenhängt.] […] Es ist wie ein Mensch bei einem Multiple-Choice-Test lieber irgendwas auswählt, als gar kein Kreuz zu setzen. Kein Kreuz würde bedeuten, dass man definitiv falsch liegt, ein Kreuz erhöht die Chancen, richtigzuliegen, je nach Anzahl der Auswahlmöglichkeiten.»
    «[…] [Konsumenten gaben bei falschen Informationen nicht nur den Chatbots die Schuld], sondern auch den verlinkten Quellen – selbst wenn diese nichts mit den Fehlern zu tun hätten.»
    «[…] Antworten [von KI-Modellen] sind nicht generell reproduzierbar. Wenn ein Chatbot sagt, die Banane ist blau, heißt das nicht, dass auch bei allen anderen Fragen zu Bananen diese falsche Information herauskommt. In einem so einfachen Fall ließe sich dem KI-Modell mitgeben, dass der Fakt Banane=blau nicht stimmt und nicht wieder gesagt werden darf. Dabei kann aber auch herauskommen, dass das Modell in der Folge Gespräche über Bananen verweigert. Die Kontrollmöglichkeiten sind eingeschränkt.»
  • Alexander Stannigel Sonnabend, 27. September 2025
    6 Kommentare
  • Alexander Stannigel✈ Emoji (Airplane) ist hier: Prokart Raceland. Sonntag, 20. Juli 2025 · Wackersdorf
    60 � Emoji (Like) | 3 Geteilt
  • alexander-stannigel.eu🏎 Emoji (Racing Car) pinselt NASCAR-Liveries. Dienstag, 8. Juli 2025
    «Update» der Bill Davis Racing-Flotte und im gleichen Zug eine neue Petty Enterprises-Flotte in klassischen STP-Farben, aber mit Mitsubishi-Sponsoren. 😃 Emoji (Laughing face)
    Aus … äh, Effizienzgründen noch für den Gen6-Mod. Vielleicht später für den Gen7-Mod. 😅 Emoji (Smiling face with cold sweat)
    2025 Petty Enterprises
    • #42, MUFG Bank, Natalie Decker
    • #43, Eneos, Hailie Deegan
    • #47, Tokio Marine, Julia Landauer
    2025 Bill Davis Racing
    • #22, Verbatim, Johanna Long
    • #23, Nikon, Chrissy Wallace
    • #27, AGC (Asahi Glass Co.), Michelle Theriault
  • Alexander Stannigel📖 Emoji (Open book) hat einige Artikel geteilt: Donnerstag, 15. Mai 2025
    • SZ, 4. Mai: AfD-Gutachten darf nicht geheim bleiben!
    • Cicero, 8. Mai: Veröffentlichung des geheimen AfD-Gutachtens durch den Spiegel ist eine Straftat!
    • Cicero, 13. Mai: Veröffentlichung des geheimen AfD-Gutachtens durch Cicero ist richtig!
    • SZ, 14. Mai: Veröffentlichung des geheimen AfD-Gutachtens durch Cicero ist sooooo aber nicht richtig!
    Wohlgemerkt jeweils von den selben Autoren bei SZ und Cicero … 🤨 Emoji (Face with raised eyebrow)
    Das Gutachten zur AfD darf keine Geheimsache bleiben Süddeutsche Zeitung · | Detlef Esslinger · Sonntag, 4. Mai 2025
    «Warum soll die Öffentlichkeit nicht wissen, was der Geheimdienst dieser Partei vorwirft? Vor Gericht muss er ohnehin seine Kenntnisse offenlegen. Und die Entfernung von deren Mitgliedern aus dem Staatsdienst ist komplizierter, als manch einer denkt.»
    (…)
    Straftat im Namen des Rechtsstaats? Cicero · | Mathias Brodkorb · Montag, 5. Mai 2025
    «Das als geheim eingestufte AfD-Gutachten ist an den ‹Spiegel› durchgestochen worden. Womöglich, um die mediale Berichterstattung über die Einstufung zu steuern. Doch das ist eine handfeste Straftat namens ‹Geheimnisverrat›.»
    (…)
    Cicero veröffentlicht das gesamte Geheimgutachten des Verfassungsschutzes zur AfD Cicero · | Mathias Brodkorb · Dienstag, 13. Mai 2025
    «Cicero liegt das AfD-Geheimgutachten des Verfassungsschutzes vollständig vor. Weil wir daran glauben, dass Demokratie nicht ohne Transparenz und kritische Öffentlichkeit funktionieren kann, veröffentlichen wir es in Gänze. Nur so können sich die Leser selbst ein Bild machen.»
    (…)
    Es ist leichtfertig, das Gutachten des Verfassungsschutzes zu veröffentlichen Süddeutsche Zeitung · | Detlef Esslinger · Mittwoch, 14. Mai 2025
    «Auch wenn die Öffentlichkeit erfahren soll, warum der Geheimdienst die Partei als ‹gesichert rechtsextremistisch› eingestuft hat – so geht das nicht.»
    (…)
Wappen des Vogtlandes mit Barockschild
Heute:
Montag, 17. November 2025 10:50
Rechtliches:
Impressum
Haftungsausschluss
Datenschutzerklärung
Kontakt
Letzte Änderung:
Donnerstag, 6. November 2025 21:20
Wappen der Spitzenstadt Plauen mit Barockschild
Browserempfehlung:
Opera, Firefox, Konqueror, Lynx und selbstverständlich alle weiteren, die nach W3C-Standards XHTML 1.1, CSS 3.0 SVG 1.1 und PNG sowie JavaScript und JPEG konform arbeiten.
Webmeisterei:
Alexander Stannigel Plauen, Vogtland, Sachsen, Deutschland, Europa, Erde, Sonnensystem, Orionarm, Milchstraße, Lokale Gruppe, Virgo-Superhaufen
Wappen mit dem Fuchs (für gewöhnlich meinem Avatar) mit Barockschild