Alexander Stannigel — hat zwei Artikel geteilt:Sonntag, 7. Juli 2024
#154
Aktueller Stand zu Investitionen in «KI»: Geldverbrennung — KI-Anbieter verkaufen Produkte, die nie für die dabei gemachten Versprechungen entwickelt wurden.
«Businesses have become more cautious about investing in artificial intelligence tools due to concerns about cost, data security, and safety, according to a study conducted by Lucidworks, a provider of e-commerce search and customer service applications. ‹The honeymoon phase of generative AI is over,› the company said in its 2024 Generative AI Global Benchmark Study, released on Tuesday. ‹While leaders remain enthusiastic about its potential to transform businesses, the initial euphoria has given way to a more measured approach.›»
(…)
«One issue is that AI has not yet paid off for those trying to make it work. ‹Unfortunately, the financial benefits of implemented projects have been dismal,› the study says. ‹Forty-two percent of companies have yet to see a significant benefit from their generative AI initiatives.› And to realize meaningful benefits, it's necessary to move past the pilot testing stage, something few companies have managed. Only 25 percent of planned generative AI investments have been completed to date, the study says.»
(…)
«‹These initial costs are comparable in the grand scheme of things, but they're really just the tip of the iceberg.› According to Redman, security and accuracy, response alignment with policies, data acquisition costs, and keeping costs under control all need to be considered. ‹The bottom line is that ensuring AI security, accurate AI responses, and responsible data acquisition all come with a price tag,› said Redman. ‹Cutting corners in these areas can lead to inaccurate or inappropriate responses, which ultimately undermines the value and effectiveness of your AI implementation.›»
«As companies prepare to spend over $1 trillion on artificial intelligence, a Goldman Sachs report examined the big question at hand: ‹Will this large spend ever pay off?›»
(…)
«‹AI technology is exceptionally expensive, and to justify those costs, the technology must be able to solve complex problems, which it isn't designed to do,› Jim Covello, the head of Global Equity Research at Goldman Sachs, said in the report. ‹The starting point for costs is also so high that even if costs decline, they would have to do so dramatically to make automating tasks with AI affordable,› he added. ‹In our experience, even basic summarization tasks often yield illegible and nonsensical results.›»
«Viele Manager schimpfen auf die Ampel: Die Regierung schleife die deutsche Wettbewerbsfähigkeit. Dabei sind die Manager selbst ein Standortfaktor – und zwar einer, der das Ranking der Bundesrepublik nach unten zieht. Die Effizienz deutscher Firmen wird im neuen Standort-Ranking ähnlich schlecht bewertet wie die Effizienz des Staates. Die Selbstkritik deutscher Firmenlenker bleibt jedoch aus, auf die Regierung zu schimpfen, ist leichter und bringt mehr Applaus.»
«Dabei wäre mindestens Selbstkritik angebracht. Bei der Einschätzung, wie gut die Qualität der deutschen Manager ist, kommt die Bundesrepublik nur auf Rang 39 der 67 untersuchten Länder. Der Befund deckt sich mit früheren Studien. Demnach werden deutsche Firmen im Durchschnitt spürbar schlechter gemanagt als Unternehmen in den USA. Auch das kostet die Bundesrepublik Wohlstand.»
«Von Menschen erstellte Datensätze werden im KI-Zeitalter immer wichtiger. Zu diesem Schluss kommt eine britische Studie von Wissenschaftlern der Universitäten Oxford, Cambridge und London. Genau solche Datensätze könnten aber zur Mangelware werden. Die heute gängigen großen Sprachmodelle […] wurden noch vorwiegend an von Menschen generierten Datensätzen […] trainiert.»
(…)
«Die nächste Generation von KI-Anwendungen werde unweigerlich auch an Datensätzen […] trainiert, die nicht von Menschen, sondern von früheren KI-Anwendungen erstellt wurden. […] Das löse unumkehrbare Defekte aus, die in Folge ein daran trainiertes KI-Modell kollabieren ließen, heißt es in der Studie.»
«Nach mehreren solchen Iterationen gingen nämlich alle Verbindungen zum ursprünglichen Inhalt vollständig verloren und danach werde nur noch Textmüll produziert, schreiben die Autoren der Studie ‹Der Fluch der Rekursion›. Training von KI-Anwendungen an künstlich generierten Daten mache die ‹Künstliche Intelligenz› nämlich vergesslich.»
«[…] kritisiert Johansson, dass selbst engste Freunde die Stimme namens ‹Sky› nicht von ihrer eigenen unterscheiden könnten. Außerdem weist sie darauf hin, dass OpenAI-Chef Sam Altman selbst auf eine möglicherweise absichtliche Ähnlichkeit hingewiesen habe. Nachdem sie Anwälte eingeschaltet habe, habe OpenAI ‹widerwillig› zugestimmt, ‹Sky› offline zu nehmen.»
(…)
«Johansson behauptet nun, dass OpenAI vergangenen September mit der Bitte an sie herangetreten sei, ChatGPT ihre Stimme zu leihen. Auch aus persönlichen Gründen habe sie sich dagegen entschieden. Neun Monate später hätten, Freunde, ihre Familie und die Öffentlichkeit jetzt bemerkt, ‹wie sehr das neue System namens ‹Sky› klingt wie ich›.»
(…)
«Gleichzeitig versicherte OpenAI, dass dafür die Stimme einer echten Schauspielerin genutzt wird, die man aber aus Datenschutzgründen nicht namentlich nennen könne. Man sei davon überzeugt, dass KI-Stimmen nicht absichtlich solche von bekannten Persönlichkeiten nachahmen sollten, ‹Sky› sei nicht als Kopie von Scarlett Johansson gedacht. […]»
«Die Aufgabe ist eigentlich ziemlich leicht: ‹Alice hat N Brüder und M Schwestern. Wie viele Schwestern hat Alice Bruder?› Während die meisten Erwachsenen – und laut der Autoren einer Studie auch Kinder – die Aufgabe wohl lösen können, scheitern die gängigen Großen Sprachmodelle, Large Language Models (LLM). Noch schlimmer, wie die Forscher finden, denn die KI-Modelle behaupten auch noch steif und fest, die richtige Antwort herausgefunden zu haben, wenn es die falsche war, und sie argumentieren logisch klingend, aber ebenfalls falsch.»
(…)
«Nimmt man die weitläufig bekannte Metapher daher, LLMs seien stochastische Papageien, die also nur wiedergeben, was sie aufgeschnappt hätten, verwundert es nicht, dass sie an solchen Aufgaben scheitern. […] Die Anbieter der gängigen KI-Modelle machen allerdings immer wieder große Versprechungen, wie gut ihre Modelle in Tests zum logischen Denken abschnitten.»
(…)
«Deshalb schlagen die Wissenschaftler auch vor, man müsse die bisherigen Benchmarks überdenken, da sie so simple Reasoning-Defizite nicht entdeckten.»
«[…] Nach und nach melden sich die üblichen Redner zu Wort, und alle, wirklich alle argumentieren in die gleiche Richtung. Alle vertreten sie eine Meinung, die stark mit der eigenen Überzeugung zum fraglichen Thema kollidiert. Tja, und da sitzt man dann und fühlt sich wie ein Geisterfahrer auf der Autobahn der Einigkeit. Erst später im Einzelgespräch mit Kollegen in der Kantine oder am Kopierer stellt sich heraus: Stimmt ja gar nicht. Offenbar sehen sehr viele die Sache anders, sie sagen nur nichts, weil sie sich in großer Runde mit ihrer Meinung genauso einsam fühlen.»
«Sozialwissenschaftler nennen dieses Phänomen ‹pluralistische Ignoranz› oder ‹kollektive Illusion›»
(…)
«Pluralistische Ignoranz kann sich aus vielen Quellen speisen, nicht nur aus dominanten Narrativen. Besonders häufig stellt sich dieses Phänomen ein, wenn es um heikle Themen geht. Dann mit Kritik aus dem scheinbaren Konsens auszubrechen, wagen nur wenige: Sie könnten sich blamieren oder schlimmere Konsequenzen erdulden müssen. So kann es passieren, dass eine laute, aggressive Minderheit den Eindruck erzeugt, sie repräsentiere die Mehrheit – nur weil sich verschreckte Gegenstimmen nicht aus der Stille wagen. Im Extremfall setzen sich dann in Gruppen Meinungen oder Entscheidungen durch, die fast jeder der Beteiligten ablehnt. Und alle fühlen sich gemeinsam einsam.»
«Im August-Horch-Museum, das auf dem Gelände des ehemaligen Sachsenring-Werks liegt, wird aber noch ein weiteres besonderes Stück Geschichte präsentiert: ein Trabi-Modell, das am Ende nie gebaut wurde […] Es gab Prototypen, genug Testkilometer waren abgespult, alles war bereit, um den Trabi-Nachfolger 603 in Serie gehen zu lassen. Aber der neue Trabi durfte nie gebaut werden.»
«[…] Demnach gab es für den 601er so viele Vorbestellungen, dass [SED-Funktionäre entschieden zunächst diese abzuarbeiten], bevor ein neues Modell aufgelegt werden durfte. Das war das Ende des Trabants 603, der technisch und optisch seiner Zeit weit voraus war. Die Karosserie entsprach der des späteren Golf 1. Gerüchte darüber, dass VW die Pläne in die Hände bekommen oder angekauft haben soll, halten sich bis heute. Beweise gibt es dafür keine.»
«Die Einigkeit erstaunt nicht, schliesslich ist die Mehrheit der Männer gleicher Meinung: Deutschlands Rechte braucht mehr Macht. Und Deutschlands Rechte braucht mehr Geld. Es ist eine Sitzung der Atlantis-Stiftung. […] Zumindest drei der Männer, die sich treffen, sind keine Unbekannten. […] Hans-Georg Maassen, Präsident der Atlantis-Stiftung [und] Vorsitzender der Werteunion […] Claudio Zanetti, designierter Stiftungsrat der Stiftung. Er war von 2015 bis 2019 Nationalrat der SVP.»
«Und da ist Rainer Gläss, Gast der Stiftung. Er lebt im ostdeutschen Bundesland Sachsen und war 1990 Mitgründer des dortigen IT-Unternehmens GK Software. Dieses ist seither markant gewachsen, beschäftigt heute mehr als 1200 Mitarbeiter und hat Ableger in 16 Ländern. Gläss hat seinen Aktienanteil am Unternehmen allerdings im letzten Jahr verkauft und ist als Vorstandsvorsitzender von GK Software zurückgetreten. Er soll über ein Vermögen von mehr als 100 Millionen Euro verfügen. Fliesst ein Teil dieser 100 Millionen in die Atlantis-Stiftung? Oder in die Werteunion?»
«Immerhin hatte Maassen Anfang Februar in einem Interview des ‹Tages-Anzeigers› gesagt, die Stiftung werde ‹hauptsächlich aus Zuwendungen von Unternehmern finanziert, die durchaus vermögend sind›. […] Doch Rainer Gläss, der Multimillionär, winkt ab. Er erwäge nicht, die Partei Werteunion finanziell zu unterstützen, hält er via Anwalt fest. Fragen zu einer Unterstützung der Atlantis-Stiftung, des Vereins Werteunion oder von Hans-Georg Maassen persönlich lässt er unbeantwortet.»
(…)
«Zunächst deckte die Rechercheplattform ‹Correctiv› auf, dass zwei Mitglieder von Maassens Verein Werteunion am sogenannten Potsdamer Treffen teilgenommen hatten. Dieses fand am 25. November 2023 im Landhaus Adlon in Potsdam bei Berlin statt; dort stellte der österreichische Rechtsextremist Martin Sellner einen Plan vor, gemäss dem zahllose ‹Asylanten, Nicht-Staatsbürger und nicht assimilierte Staatsbürger› aus Deutschland ausgeschafft werden sollten. Sellner und radikale Rechte benützten dafür das Wort Remigration.»
(…)
«Die Annäherung zeigt sich auch an jenem Montag, 20. November 2023. In Zug, wo sich die fünf Männer treffen, wird der ehemalige SVP-Nationalrat Claudio Zanetti in den Stiftungsrat der Atlantis-Stiftung von Hans-Georg Maassen gewählt. […] Beirat hätte auch Rainer Gläss, der Multimillionär aus Sachsen, werden sollen. Er habe aber abgelehnt, teilt sein Anwalt mit.»