
Thomas Czinkota will eine Parabel erzählen. Sie handelt davon, wie schön die modische Variante der Künstlichen Intelligenz (KI), deren Inkarnationen unter dem Namen Large Language Model (LLM) auftreten, eine, aus seiner Sicht ideale Weise der Informationsverarbeitung spiegelt, nämlich die der Aktienmärkte, um aus diesem Vorbild sogar ein Konzept der Regulation für die KI abzuleiten.[1] Er muss dazu einen Weichzeichner aufsetzen — nicht nur damit beide Zweige der Geschichte très chic herauskommen, sondern auch, damit verborgen bleibt, dass die Spiegelung alles andere als perfekt ist.
Folgt man der neoklassischen Erzählung, dann liege es beim Markt, Preise zu ‚finden‘ — worin er sich durch eine unübertreffliche Meisterschaft auszeichne. Dies ruft die schwach begründete Vermutung hervor, es gäbe so etwas wie ‚wahre‘ Preise, die es nur zu ‚finden‘ gelte. Während diese, von Czinkota wiederholte, Variante der Geschichte daran festhält, dass dem ein Prozess reiner Informationsverarbeitung zugrunde liege, nehmen realistischere Auffassungen wahr, dass dabei nicht selten Machtverhältnisse eine Rolle spielen, dass vielmehr Preissetzung stattfinde statt Preisfindung. Die Möglichkeiten, den angemessenen Preis von Produkten zu bestimmen, sind begrenzt: den Maßstab dafür bilden die Herstellungs- bzw. Bereitstellungskosten, die von den, selbst wiederum durch Machtverhältnisse beeinflussten, Preisen für Rohstoffe und Arbeit abhängen. Die Stelle, an der darüber letzte Auskunft zu holen wäre, hat noch niemand benannt.
Noch schwieriger wird eine Bewertung, wenn es nicht um Produkte mit unmittelbarem Gebrauchswert und relevanten Herstellungskosten, sondern um Papiere wie Aktien geht, die Ansprüche verbriefen, im Falle der Aktie auf die Dividende und manchmal auch ein Stimmrecht, deren zukünftiger Wert ungewiss ist. Solche werden, sofern es sich um sogenannte Blue-Chip-Werte handelt, in der Erwartung einer stabilen Entwicklung erworben, doch manchmal auch gekauft, weil man auf eine Wertsteigerung, oder leer, d.h. ohne ihr Eigentümer zu sein, verkauft, weil man auf eine Abwertung spekuliert. Es gibt Indikatoren, wie etwa das Kurs-Gewinn-Verhältnis, das aber, da es sich auf die Gegenwart stützen muss, nur bedingt etwas über die Zukunft sagt. Eine zuverlässige Einschätzung von Kurspotentialen in Bezug auf das Kurs-Gewinn-Verhältnis verlangt profunde Kenntnisse der betreffenden Unternehmen, ihrer Sektoren und ihres politischen und weltwirtschaftlichen Umfelds. Solche differenzierten Bewertungen werden jedoch nicht immer publiziert und zur Kenntnis genommen. Auch Czinkota verdrängt die historische Erfahrung von Blasen, die sich, wie etwa die der dot.com-Titel in den 1990ern, über lange Zeiträume aufbauen konnten, obwohl sie für Beobachter, mit hinreichendem Sachverstand erkennbar gewesen waren. Anders ist kaum erklärbar, dass er eine Behauptung wie die folgende aufstellt:
„Sollte sich die ‚Wissensverarbeitungsmaschine Aktienmarkt‘ geirrt haben, wird dies umgehend korrigiert. […] Eine Markthalluzination (Spekulationsblase) ist das Ergebnis kollektiver Hoffnung oder Gier. Doch auch hier zeigt sich der Reifegrad des Marktes: Er besitzt durch den unausweichlichen Realitätscheck eine eingebaute Notbremse, die jede Halluzination früher oder später beendet.“
Allzu oft geschah das eher später als früher und richteten die damit einhergehenden Friktionen schweren Schaden an. Zu der oft wiederholten Weisheit, dass ‚die Märkte‘ ‚in the log run‘ Übertreibungen korrigieren würden, bemerkte John Maynard Keynes schon vor hundert Jahren: „in the log run we are all dead“.[2] Viel zu lange dauerte es immer für die zahlreichen Opfer der auf das Platzen der Blasen folgenden Krisen. Gegen Gier, Dummheit und Herdentrieb bleiben, nicht zuletzt, wenn sie von interessierter Seite angeheizt werden, auch Regularien, wie etwa die Offenlegungspflichten für börsennotierte Unternehmen, oft wirkungslos. Die ‚Wissensverarbeitungsmaschine Aktienmarkt‘ arbeitet keinesfalls störungsfrei. In ihrem Getriebe knirscht es ab und zu merklich und der Markt benötigt dann massive Injektionen von Liquidität durch die Zentralbanken, um weiter zu funktionieren.
Zu den klassischen Treibern von Stabilitätsrisiken fügt die elektronische Datenverarbeitung weitere, diese verstärkende, hinzu: die automatisierte Arbitrage und die Indexfonds bzw. die ETF (Exchange Traded Funds), deren für ein breites Publikum leichter zugängliche Variante. Fonds, deren Anlageentscheidungen nicht durch Manager getroffen werden, sondern die lediglich automatisch einem Index folgen, etablieren eine positive Rückkopplung der Marktentwicklung mit sich selbst und damit einen Mechanismus, der die Entwicklung von Blasen verstärkt. Die seit Jahren, unbeirrt von allen wirtschaftlichen und politischen Krisensymptomen, steigenden Kurse sind auch als Indiz für solche Mechanismen zu lesen, die die Triebkraft hoher Ersparnisse in diese Gestalt übersetzen, dadurch oft jedoch nicht produktiv verwerten, sondern lediglich zirkulieren lassen. Eine deutliche Blasenentwicklung zeichnet sich, mit Ähnlichkeit zu den Ereignissen in den 1990ern, aktuell bei den Werten der in der KI engagierten Unternehmen, bzw. der von diesen Engagements profitierenden, wie z.B. den Lieferanten von Chips und von Strom sowie der für beides nötigen Ausrüstungen an: es bestehen Zweifel, ob die im angebrochenen Jahr beabsichtigten Investitionen, allein der vier größten Spieler (Amazon, Google, Meta, Microsoft) im Umfang von 660 Milliarden Dollar, in neue Rechenzentren, die sich mit den in den drei Vorjahren getätigten zu ca. 1,5 Billionen Dollar summieren, durch erwartbare Erlöse einzubringen seien.[3]
Dazu kommt ein Faktor, der diese Investitionen noch riskanter erscheinen lässt: die von kritischen Beobachtern der Szene bereits seit Jahren vertretene These, dass das Modell, auf dem die meisten der heutigen KI-Systeme aufbauen, prinzipiellen Limitationen unterliege,[4] findet in Fach- wie auch in Finanzkreisen zunehmende Akzeptanz. Dies nicht zuletzt, weil das Konzept des Scaling, auf das die Akteure setzen, erkennbar scheitert. Dieses folgt der Erwartung, durch immer mehr Daten und Rechenleistung die bekannten Schwächen der Systeme ausbügeln, ja sogar eine Superintelligenz schaffen zu können. Die exponentiellen Steigerungen des Ressourcen-Inputs bringen nur noch schwindende Erträge. Z.B. GPT5 stellte nicht den erhofften großen Sprung über seinen Vorgänger hinaus dar.[5] Die derzeitige KI-Monomanie verschlingt nicht nur Kapital, sondern auch physische Ressourcen — Energie und Mineralien — in einem unvorstellbaren Ausmaß und deformiert die Wissenschaft, indem sie ganze Institute auf eine äußerst schmale Spur leitet, Massen von jungen Talenten dorthin und, noch mehr, in die Labore der KI-Industrie lockt und damit auf einen Forschungs- und Qualifikationspfad festlegt, dessen Nutzen und Zukunft alles andere als sicher sind.
Auch dem zweiten Arm der scheinbaren Parabel gebricht es an Schlüssigkeit. Czinkota erweist sich als Adept des Doublespeak, der sich um die KI ausbreitet, kann dessen Dissonanzen aber nicht verbergen: so beteuert er einerseits, dass „das LLM […] eine Wissensverarbeitungsmaschine [ist]“, um dann gleich zu versicher, dass
„die Diskussion, ob ein LLM tatsächlich Wissen oder lediglich Daten und Zahlen verarbeitet, […] für diese Analogie [von Aktienmarkt und LLM, RF] zweitrangig [ist]. Entscheidend ist, dass beide Systeme funktional identisch arbeiten: Sie transformieren einen massiven Input an verfügbaren Informationen in ein eindeutiges Signal.“
Für die Bedeutung der Daten ist relevant, ob sie tatsächlich Wissen getreu repräsentieren. Doch genau das tun sie im Falle der LLMs nicht. Die repräsentieren kein Wissen, sondern sind, auf der Basis eines gigantischen Textkorpus, das alle erdenklichen Äußerungen — viele davon sind keine Aussagen und sofern sie solche sind, oft auch falsch — umfasst, dazu dressiert, das wahrscheinlich nächste Spachatom nach dem gegebenen Kontext vorherzusagen — mit dem beachtlichen Risiko, auch schlichten Unsinn oder schon syntaktisch missglückte Sätze zu produzieren. Die Technik des Doublespeak besteht darin, einerseits, indem Entsprechendes immer wieder eingestreut wird, die Illusion aufzubauen, es werde dabei Wissen verarbeitet oder gar generiert, während andererseits zur Erklärung der Technik auf bloße Mechanismen der Datenverarbeitung rekurriert wird, die jedoch nicht erklären, wie die zu Unrecht beanspruchte Wissensverarbeitung funktionieren soll — weil das auch nicht geht.
Die logischen Lücken der Argumentation werden durch hochtrabende Formulierungen verdeckt: „Beide Systeme [Aktienmarkt und LLM, RF] sind somit isomorph in ihrer Funktion als Abstraktionsmaschinen: Sie operieren nicht auf der Ebene der Materie, sondern auf der Ebene der Information.“ Dass sie auf der Ebene der Information arbeiten, ist banal, doch ob dem Autor klar ist, welche Kriterien eine Isomorphie[6] erfüllen muss, darf bezweifelt werden. Er bringt keine geeigneten Argumente vor, um das darzutun — weil er es nicht kann. Dass an der Börse heute auch Computer herumstehen, reicht als Merkmal einer Isomorphie mit dem LLM nicht aus. Sicher kann man Aktienmärkte und LLMs als informationsverarbeitende Systeme gleichsetzen — wobei man Information, unter Abstraktion von Bedeutung, als Folge von Signalen betrachten muss —, doch während der Aktienmarkt Signale produziert und verarbeitet, denen Teilnehmer treffend Bedeutungen zuzuordnen vermögen, beruht der vermeintlich gleiche Vorgang bei den LLMs auf einer Täuschung: in deren Funktion wurde — außer der statistischen über das relative Vorkommen von atomaren Wortkomponenten — nirgendwo inhaltliche, Bedeutung transportierende, Information oder gar Wissen verarbeitet. Wenn dabei etwas herauskommt, was als zutreffende Aussage erscheint, ist das nicht völlig unwahrscheinlich, doch inhaltlich nicht fundierter Zufall.
Ein Meister des Doublespeak, zudem von ungleich größerer Prominenz und Reichweite als Czinkota, ist Roberto Simanowski. Wenn dieser erklärt, das „idealtypische Versprechen der Sprachmodelle“ bestehe darin, „aus dem Wissen und den Meinungen der ganzen Welt Texte zu produzieren, die nicht religiösen, kulturellen oder politischen Erwägungen folgen, sondern mathematischen“[7], klingt das hochgestochen, geht aber an der Sache vorbei. Es bilden sich in den Sprachmodellen, in Silben zerhackt und ‚verwürfelt‘, d.h. wahrscheinlichkeitsgewichtet aneinandergereiht, dekontextualisiert und nivelliert, eben doch die unter den Urhebern des zugrundeliegenden Textkorps vorherrschenden Vorurteile ab. Die Weise, in der das geschieht, folgt keinen „mathematischen Erwägungen“, sondern besteht in banalem Ausrechnen. Es entstehen dabei keine „Aussagen“[8], weil es hier keinen Sprecher gibt, der damit einen Gedanken artikulieren würde. Das Aneinanderreihen von Silben in dieser Weise bringt keine „mathematische Wahrheit jenseits jeder ideologischen Perspektive“[9] hervor, sondern stochastisches Geplapper, in dem, wie auch immer zerhackt und verzerrt, eben doch die verbreiteten Ansichten durchscheinen. Dass die Modelle zu bestimmten Themen, ‚appropriately prompted‘, oft ganze Abschnitte aus dem zugrundeliegenden Textkorpus reproduzieren, liegt in ihrer Konstruktion.[10]
Zu jedem vermeintlich oder wirklich spektakulären Ereignis, seien es technische Neuerungen wie das Internet und die LLMs oder ein angeblich die Menschheit bedrohendes Virus, produzieren die feuilletonistischen Tastenbediener zuverlässig Tonnen an nicht minder spektakulär klingenden Phrasen, in denen sich oft genug Fehleinschätzungen und fatale Rezepte verbergen. Zu gespenstischen Konsequenzen führt das in Gestalt einer Idee wie der „pluraler Sprachmodelle“, die eine solche Fehleinschätzungen normativ wendet. Die
„scheinen nur dann eine reale Möglichkeit zu sein, wenn die Gesellschaft die Sprachmodelle, die immer mehr die Kommunikation ihrer Bürger bestimmen werden, als sensible Infrastruktur oder gar Daseinsvorsorge deklariert und zur Vielfalt per Design verpflichtet — so wie sie den öffentlich-rechtlichen Rundfunk per Medienstaatsvertrag gesetzlich zur Informations- und Perspektivenvielfalt verpflichtet.“[11]
Man fragt sich, wie der Autor, der soeben versichert hat, ein LLM produziere „mathematische Wahrheit jenseits jeder ideologischen Perspektive“, auf die Idee kommt, dass man einem solchen „Informations- und Perspektivenvielfalt“ beibringen könne. Anscheinend glaubt er — charakteristisch für Doublespeak — doch nicht ganz an seine vorherige Behauptung. Auf jeden Fall kommt ein solches Ansinnen, gleichgültig unter welchen Bedingungen, der Institutionalisierung betreuten Denkens und Sprechens gleich. Das ÖRS (Öffentlich-Rechtliches Sprachmodell) sagt uns, was sagbar sei. Vor dem Hintergrund rezenter Erfahrungen mit dem ÖRR (Öffentlich-Rechtlichen Rundfunk) ist leicht zu erahnen, wo die Grenzen dieser Art von Einrichtung liegen.[12] Solche Ideen scheinen in der Luft zu liegen. Auch Czinkota hat dazu Vorschläge: „Wir sollten die jahrzehntelange Erfahrung im Umgang mit marktwirtschaftlichen Informationssystemen als Abkürzung für die KI-Regulierung nutzen.“ Sein Modell hat deshalb ein anderes Vorbild:
„Ein konkretes Instrument hierfür wäre die Schaffung einer BaKI (Bundesaufsicht für KI). Ganz im Stil der BaFin könnte diese Behörde sicherstellen, dass Wissensflüsse transparent bleiben und sich keine Wissensmonopole bilden. So wie der Aktienmarkt durch Publizitätspflichten ein ‚Fair Trade‘ von Informationen sicherstellt, garantiert eine BaKI, dass das kollektive Wissen der Gesellschaft allgemein zugänglich bleibt.“
Der einzige vertretbare Gedankensplitter, den man hier vermuten kann, wäre eine Verpflichtung der Urheber von Sprachmodellen, die Daten, mit denen diese trainiert wurden, und die Methoden, die dabei zur Anwendung kamen, offenzulegen. Doch das „kollektive Wissen der Gesellschaft“ sollte, sofern letztere sich mit Recht als freie bezeichnet, allgemein zugänglich sein. Dafür bedarf es der Informations- und Meinungsfreiheit und einer Justiz, die diesen Nachdruck verleiht, doch keines Bundesamtes. Darüber, was zu jenem Wissen zählt, wird eine solche Behörde — siehe oben — ohnehin ihre eigenen Vorstellungen haben. Ein existierendes Bundesamt, das für Statistik, brachte es immerhin fertig, jahrelang zu verbergen, dass Deutschland sich in einer Rezession befindet.[13]
Doch selbst beste Absichten und weitestes Bewusstsein unterstellt, kann das Unternehmen, solches Wissen unter Aufsicht einer Behörde in Form eines Sprachmodells zu konsolidieren, nur scheitern — doch wahrscheinlich wird das dort niemand bemerken. Ob BaKI oder ÖRS, der Blase, in deren Zentrum die medialen und politischen Eliten sitzen, dürfte so noch schwerer zu entkommen sein, diese vielmehr, mit gestärkter epistemischer Macht, in ihrer Selbstgewissheit, die Guten und im Besitz der Wahrheit zu sein, bestätigt werden — das Erwachen nach ihrem Kollabieren noch schmerzhafter.
[1]Die Markt-Maschine: Warum LLMs nicht denken, sondern Informationen „einpreisen“. Overton, 29. Januar 2026 <https://overton-magazin.de/top-story/die-markt-maschine-warum-llms-nicht-denken-sondern-informationen-einpreisen/> (04.02.2026).
[2]John Maynard Keynes: A tract on Monetary Reform (1923). 3. Aufl., Cambridge: Cambridge University Press, 2013 (Collected Writings; IV), 65.
[3]Morris, Stephen; Acton, Michael; Rosner-Udin, Rafe (2026): Big Tech’ ‚breathtaking‘ $660bn spending spree reignites AI bubble fears. Financial Times, 6. Februar <https://www.ft.com/content/0e7f6374-3fd5-46ce-a538-e4b0b8b6e6cd> (06.02.2026); Gary Marcus: Some disconcerting facts about AI and banking that may have profound consequences. Marcus on AI, 10. Februar 2026 <https://garymarcus.substack.com/p/some-disconcerting-facts-about-ai> (10.02.2026).
[4]Marcus, Gary (2022): Deep Learning Is Hitting a Wall. Nautilus, 10. März <https://nautil.us/deep-learning-is-hitting-a-wall-238440/> (22.04.2024).
[5]Gary Marcus: OpenAI’s Got 9.9 Problems, and Twitch Ain’t One: The AI darling faces a long list of serious challenges in 2024. Marcus on AI, 27. Januar 2024. <https://garymarcus.substack.com/p/openais-got-99-problems-and-twitch> (08.02.2026). Ein Gespräch, in dem Marcus seine Punkte aktualisiert findet sich hier: <https://www.youtube.com/watch?v=aI7XknJJC5Q> (08.02.2026)
[6]Eine Isomorphie besteht zwischen zwei Gebilden, wenn es zwischen allen ihren Elementen eine die Strukturen erhaltende, umkehrbar eindeutige Abbildung gibt.
[7]Roberto Simanowski: Große Sprachmodelle: Was technisch möglich ist und politisch bedacht werden muss. Lettre International 151, Winter 2025, 11.
[8]Simanowski, a.a.O., 11.
[9]Simanowski, a.a.O., 12 (Emphase im Original).
[10]Marcus, a.a.O.
[11]Simanowski, a.a.O., 14 (Emphase im Original).
[12]Eine aktuelle Kostprobe bietet Marcus Klöckner: Miosga: „Haben Sie nicht den Eindruck, dass Putin uns droht?“ Wo Journalismus sein sollte, spritzen Ignoranz und Ideologie aus allen Poren. Nachdenkseiten, 10. Februar 2026 <https://www.nachdenkseiten.de/?p=146067> (10.02.2026).
[13]Heiner Flassbeck: Nur mal die längste Rezession aller Zeiten übersehen. Overton, 4. August 2025 <https://overton-magazin.de/hintergrund/wirtschaft/nur-mal-die-laengste-rezession-aller-zeiten-uebersehen/> (09.02.2026).



Wollt Ihr den totalen Überwachungsstaat? Wollt Ihr einen Staat, der noch viel totaler überwacht als bisher? Wollt Ihr einen Total-Überwachungsstaat, der Euch noch viel totaler in jene totalste Abhängigkeit führt, die Ihr Euch immer erträumt habt?
Dann, ja dann folgt mir nach!
der erste gscheite artikel, zwar nicht über ök, aber über KI, auf overton. champagner!
Da steht viel Richtiges drin, aber wieso steht am Schluss, dass es zum noch schlimmeren Kollabieren kommen wird?
Jeder weiß, dass die KI gut im finden und erkenne, aber nicht so gut im Planen ist. Halluzinieren ist kein Planen, sondern es sind Phantasie-Irrläufer.
Beim Dot-Com-Kollaps scheiterten Geschäftsmodell. Das Börsengeld floss in viel Personal- und 0815-Büro-Investitionen, die nicht rentierten und dadurch wertlos wurden. Die Hardware, die jetzt gekauft wird, ist ein Wert an sich. Wenn die eine Idee, was KI gut können könnte, nicht funktioniert, funktionieren immer noch die bereits bekannten und zukünftige Erfolge.
Die KI ist enorm gut, darin, alles das wiederzugeben, was die letzten Jahre und Jahrzehnte in Zeitungen und sonstigen Veröffentlichungen in Text, Bild und Ton verfasst wurde. Exakt das macht die klassische Wirtschaftslehre – ebenfalls ein Liebling der Superreichen – und wirklich kollabiert ist der Westen deswegen noch nicht, auch wenn es zu einer fortschreitenden Verarmung der Bevölkerung kommt.
Die KI kann viel von der Arbeit, in der bisher die ganzen Mittelschichtler ihre Brötchen verdienten, viel schneller erledigen. Das sind keine kleinen Genies, die da ersetzt werden sollen, sonder es sind kleine, brave Rädchen, die ihre Ausbildung artig und bisher auskömmlich der kapitalistischen Wertschöpfung zur Verfügung stellen und die zukünftig, Schritt für Schritt von immer gigantischeren mietbaren Cloud-KIs ersetzt werden. Die Weber 4.0.
Das „schlimmere Kollabieren“ ist ein Wunschtraum, den ich gut nachvollziehen kann. Ich empfehle sehr, dass jeder, der dieser Ansicht zuneigt, die Frage „Wird es durch den Einsatz von KI zu einem schlimmen Kollabieren kommen?“ bei Google oder einer anderen KI eingibt. Die Möglichkeiten sind alle schon durchgespielt und bekannt. Die verschrobenste ist die „AI x-risk“, die schon beim Terminator ideengebend war.
Damals wusste das Publikum zu wenig über KI und nichts von KI-Halluzinationen. Man dachte, dass KI irgendwie wie ein Schachkomputer funktioniert, aber statt mit Schachregel mit Wissen um die Welt alle möglichen Varianten durchrechnet und dabei die Spielregeln bzw. die Erfolgsgewichtung ein bisschen durcheinander geraten könnten. Aber gerade so, also in die Zukunft gerichtet und mit nachweislichen tatsächliche Möglichkeiten, funktioniert KI eben nicht.
Die KI-Halluzinationen sind allerdings exakt ein Produkt schlechter Rechen-Erfolgsgewichtung, weil in der KI eine erfunden Antwort besser bewertet wird als keine Antwort.
KI ist ein superfreundlicher, superschneller und mit unvergleichlicher Erinnerung ausgestatteter Blender. Genau das, wovon Personaler, die nach Leuten mit Softs-Skills bis etwa zum mittleren Management suchen, träumen.
Da winken mit KI gigantische Einsparungsgewinne.
Da steht viel Richtiges drin, aber wieso steht am Schluss, dass es zum noch schlimmeren Kollabieren kommen wird?
Jeder weiß, dass die KI gut im finden und erkenne, aber nicht so gut im Planen ist. Halluzinieren ist kein Planen, sondern es sind Phantasie-Irrläufer.
Beim Dot-Com-Kollaps scheiterten Geschäftsmodell. Das Börsengeld floss in viel Personal- und 0815-Büro-Investitionen, die nicht rentierten und dadurch wertlos wurden. Die Hardware, die jetzt gekauft wird, ist ein Wert an sich. Wenn die eine Idee, was KI gut können könnte, nicht funktioniert, funktionieren immer noch die bereits bekannten und zukünftige Erfolge.
Die KI ist enorm gut, darin, alles das wiederzugeben, was die letzten Jahre und Jahrzehnte in Zeitungen und sonstigen Veröffentlichungen in Text, Bild und Ton verfasst wurde. Exakt das macht die klassische Wirtschaftslehre – ebenfalls ein Liebling der Superreichen – und wirklich kollabiert ist der Westen deswegen noch nicht, auch wenn es zu einer fortschreitenden Verarmung der Bevölkerung kommt.
Die KI kann viel von der Arbeit, in der bisher die ganzen Mittelschichtler ihre Brötchen verdienten, viel schneller erledigen. Das sind keine kleinen Genies, die da ersetzt werden sollen, sonder es sind kleine, brave Rädchen, die ihre Ausbildung artig und bisher auskömmlich der kapitalistischen Wertschöpfung zur Verfügung stellen und die zukünftig, Schritt für Schritt von immer gigantischeren mietbaren Cloud-KIs ersetzt werden. Die Weber 4.0.
Das „schlimmere Kollabieren“ ist ein Wunschtraum, den ich gut nachvollziehen kann. Ich empfehle sehr, dass jeder, der dieser Ansicht zuneigt, die Frage „Wird es durch den Einsatz von KI zu einem schlimmen Kollabieren kommen?“ bei Google oder einer anderen KI eingibt. Die Möglichkeiten sind alle schon durchgespielt und bekannt. Die verschrobenste ist die „AI x-risk“, die schon beim Terminator ideengebend war.
Damals wusste das Publikum zu wenig über KI und nichts von KI-Halluzinationen. Man dachte, dass KI irgendwie wie ein Schachkomputer funktioniert, aber statt mit Schachregel mit Wissen um die Welt alle möglichen Varianten durchrechnet und dabei die Spielregeln bzw. die Erfolgsgewichtung ein bisschen durcheinander geraten könnten. Aber gerade so, also in die Zukunft gerichtet und mit nachweislichen tatsächliche Möglichkeiten, funktioniert KI eben nicht.
Die KI-Halluzinationen sind allerdings exakt ein Produkt schlechter Rechen-Erfolgsgewichtung, weil in der KI eine erfunden Antwort besser bewertet wird als keine Antwort.
KI ist ein superfreundlicher, superschneller und mit unvergleichlicher Erinnerung ausgestatteter Blender. Genau das, wovon Personaler, die nach Leuten mit Softs-Skills bis etwa zum mittleren Management suchen, träumen.
Da winken mit KI gigantische Einsparungsgewinne.
(Repost, falls der erste Kommentar wegen E-Mail-Vertipper nicht mehr auftaucht)
das mit dem reicht schon um arbeit einzusparen stimmt, aber sonst nichts. vielleicht so: was wird ein llm nie ausgeben? heureka, ich habe etwas erkannt! es versteht nicht, erinnert sich nicht, wiedergibt nicht, findet nicht, hallzuniert nicht, plant nicht, ist nicht freundlich, ersetzt nicht speziell die mittelschicht und ist mit keiner gewichtung oder trainigsmaterial der welt irgendwie intelligent zu machen, geradesogut könnte man einen papagei dazu bringen wollen sich mit einem über die letzte folge von tatort zu unterhalten. es produziert durch algorithmen den schein von sprachlichem output, ohne irgendetwas zu verstehen, weder was es ausgibt, noch was hereinkommt.
Vom Autor schön auf den Punkt gebracht.
Das ist alles schön und richtig ausgeführt, man wird aber trotzdem versuchen uns diesen AI Blödsinn als Autorität in punkto Wissen aufzuzwingen koste es was es will.
KI ist unser Ende und fertig., fast so schlimm wie Kapitalismus und Religionen!
Die Menschen finden ja heute schon ohne Navi nicht mehr nach Hause.
Und es wird dazu benutzt werden, um jeden Ermessungsspielraum und jede noch vorhandene Empathie im Keim zu ersticken und auszulöschen.
Gleichzeitig, wird es jedes vielleicht noch im Ansatz manifestierte schlechte Gewissen marginalisieren, da der letzte eingestellte Beamte dann sagen kann, das war die KI, da kann man nichts machen, wenn die Grundsicherung nicht mehr gezahlt wird.
Wissen ohne Verständnis ist zwar nutzlos, führt aber zu sehr lehrreichen Ergebnissen 😉
„KI“ werden gefüttert von zehntausenden Sklavenarbeitern, die sie „trainieren“, dazu schnorcheln Bots das Web ab, null Referenz woher, oder komplett aus dem virtuellen Arsch gezogen. Das alles von den selben, die hysterisch auf „intellectual property“ pochen. LLM sind Plagimaten.
Aber das Platzen der AI Bubble wird interessant.
Da hat doch endlich mal ein Autor den Unterschied zwischen implementierter Logik und dem sprachlichen Abbild von Logik erfasst – Chapeau! Und gleich mal die Dummheit des Aktienmarktes abgehandelt – Donnerwetter!
Ja, es wird Jahre dauern (oder Jahrzehnte?), die sozialen Deformationen der jetzigen völlig unreflektierten Verwendung von LLM als „Intelligenz“ zurückzubauen (wenn es überhaupt gelingt). Was da an menschlicher, lebender Intelligenz kaputtgeschlagen und entsorgt wird, ist ein Generationenschaden, der den einer Covid19-Pandemie bei weitem übertrifft.
oder Jahrzehnte? Das wird knapp. So viel Zeit hat die Menschheit nicht mehr.
Es ist erstaunlich wie selbst tatsächlich denkende Menschen den „elephant in the room“ ignorieren.
Wenn die AI mal so weit entwickelt ist, vielleicht in einem Monat oder einem Jahr, egal, eines Tages wird es nicht mehr möglich sein Fake von Real zu unterscheiden. Kein Bankkonto, kein Kraftwerk, keine Nuklearwaffen werden dann noch sicher sein. Und die Blöden, also die grosse Mehrheit, werden nichts davon kapieren.
Mann, wird das ein tolles TV Programm werden!
Kleiner Tip: Wenn du ein Auto so fast ganz ohne Elektronik hast… geh sorgsam damit um, es wird bald unbezahlbar sein…
Sehr schön ausgeführt.
Noch besser zusammengefasst hatte es einst Peter Lustig immer am Ende seiner Sendung:
ausschalten nicht vergessen !
Die jetzige Bafin wird ihrer Aufgabe schon nicht gerecht.
Eine Bafin für KI würde nur Pöstchen für brave Parteisoldaten und deren Angehörige schaffen.
Oder soll sich die KI am Ende vielleicht selbst kontrollieren und regulieren??? 🙂
Axiomatische Annahme:
„Das Universum ist nicht vernünftig. Folglich kann es auch keine endgültige Wahrheit geben.“
Das Universum ist nicht vernünftig, denn es hat keine (sichtbare, messbare, sagbare) Absicht, genau sowenig wie ein Markt oder eine KI. Letztere haben einen Auftrag, der darin liegt, einen Bedarf zu bedienen oder eine Anfrage zu beantworten, die vom Fragenden als sinnvoll, nützlich oder Mumpitz beurteilt wird und entsprechendes Handeln initiiert. Und wenn es nur eine weitere Frage ist.
Die Erfindung des Ichs entspringt aus der Erkenntnis der Unvernunft, bzw. der Abwesenheit von Vernunft des Universums. Es ist eine Reduktion zum Nützlichen, eine Reaktion auf eine Begrenztheit, die komplexes Handeln mithilfe der Abstraktion ermöglicht.
Aus der fortwährend zufälligen Veränderung des Universums – für das Ich ist es die Veränderung seiner der Umwelt – lässt sich ableiten, dass nichts vollständig deterministisch, also vorhersehbar ist. Hingegen ist alle Veränderung irgendwann vollständig (was das Ich als zerstörerisch wahrnimmt), so dass es für alles einen begrenzten Zeitrahmen von Möglichkeiten gibt.
Also wurde vom „absichtsvollen und begrenzten Ich“ die Variable Wahrscheinlichkeit eingeführt, welche zu Gott, Markt und neuerdings KI externalisiert wurde. Damit wurde und wird auch versucht, Verantwortung auszulagern, was zudem eine Unterwerfung voraussetzt und zwingend zu Hierarchien führt. Die Verantwortung beginnt aber nicht erst bei der Beurteilung einer Antwort und den sich daraus ergebenden Handlungen, sondern schon mit dem stellen einer Frage: Das ist die erste Handlung.
Verantwortung kann also nicht abgelegt werden, auch nicht durch das Echo einer »Superintelligenz«. Die gerade für KI verschwendeten Ressourcen ähneln dem Bau der Pyramiden oder dem Wetten auf Tulpenzwiebeln. Und das ist genau das, was bei jeglicher Unterwerfung geschieht: Grober Unfug. Hierin liegt auch die begründete Angst vor den „Gefahren der Ki“: In der verantwortungslosen Unterwerfung.
Seltsames Axiom, aus dem ersten Teil (Das Universum ist nicht vernünftig) folgt ganz bestimmt nicht dieses:
„…Folglich kann es auch keine endgültige Wahrheit geben“.
Das Universum folgt Naturgesetzen, folglich kann man sie erkennen und nähert sich zunehmend der Wahrheit an. Das nennt man Wissenschaft. Probe aufs Exempel ist die Überprüfung von Annahmen (durch Beobachtung induktiv gewonnen) durch das Experiment und schon gar nicht durch Berufung auf Autoritäten.
Dieser Gedankengang ist die Kernaussage der Aufklärung.
Es ist kein »Axiom« sondern eine »Annahme« und die beinhaltet immer irgendwo eine Frage, nämlich ob die Annahme richtig ist. »Axiomatisch« meint: „Gehen wir mal davon aus…“
»Folgt« das Universum den Naturgesetzen oder ist es die Summe der Naturgesetze?
Wissen wir, ob Naturgesetze immer gültig waren, sind, sein werden?
Lustig ist, dass Sie die Aufklärung gegen meine Ausführungen stellen, denn genau darauf wollte ich hinaus:
„Die selbstverschuldete Unmündigkeit.“
Kommt drauf an, ob man Axiom im klassischen oder im Hilbertschen Sinn versteht.
Sie werden mir verzeihen müssen, dass ich nicht bei jedem Kommentar ein Glossar mitliefere.
Doch ist Ihre Frage nicht unberechtigt und mich würde interessieren, worin für Sie denn der Unterschied hier (bei diesem Kommentarzweig) läge?
Nagut, ich verzeihe 🙂 . Allerdings ist es schon ein Unterschied, ob ich Axiom als beliebige Grundannahme sehe, auf der ich einen Kalkül basiere (oder auch nicht), oder als eine Evidenz, die keines Beweises bedarf. Mein Eindruck ist, Du springst zwischen beidem.
Also, ich meinte es ganz klassisch, wobei die »Axiomatische Annahme« eigentlich sofort ein Grinsen über das Gesicht huschen lassen sollte, sofern das von weitem winkende Oxymoron nicht übersehen wird 😉
Und aus meiner Frage haben Sie sich nun auch sehr gelungen heraus geschlichen.
Ist auch völlig ok, das ist ja kein Philosophie- oder Mathematik-Seminar hier, sondern meinerseits nur die kurze Darlegung eines Sonntagsgedankens. 🙂
Die Reduzierung der Aufklärung (sicher eine deutsche Unart) auf Kant hat mich schon immer geärgert. „Die selbstverschuldete Unmündigkeit.“ – so ein Unsinn: was sollte denn im 18. Jahrhundert, das noch immer von der Religion ideologisch dominiert war, selbstverschuldet sein. Da ziehe ich Voltaire vor, der das Primat der Kritik an der Ideologie postuliert: Weg mit dem lieben christlichen Gott. Zermalmt die Niederträchtige!
Ecrasez l’Infâme!
Erst wenn die geistige Lufthoheit hergestellt ist, können wir über Mündigkeit ohne Bedrohung durch Scheiterhaufen, Existenzvernichtung usw. reden. Leider sind wir da wieder und leider funktioniert die Befreiung nicht allein, wir brauchen Bündnispartner. Von „selbstverschuldet“ zu sprechen, bedeutet eine Unterschätzung des Herrschaftsapparats (damals die Kirche, heute die MSM).
Ich weiß jetzt gar nicht, was mich mehr bekümmern könnte, dass mir »Reduzierung« vorgeworfen wird oder dass ich »deutsch« denke 😉
Habe hier nunmal Kant genommen. Damit wollte ich nicht alle anderen Aufklärer ausladen.
Um genau diese Einsicht für den einzelnen geht es mir, sich nicht von den Versprechungen, Wünschen oder Dystopien bezüglich des „Werkzeugs KI“ davon irritieren lassen, dass auch hier unfreundliche Absichten anwesend sind. Deswegen niemals die „Hoheit“ über das eigene Denken abgeben.
Da sind wir uns wieder sehr einig. Jetzt kann der Sonntagsspaziergang starten: „Vom Eise befreit, sind Ströme und Bäche“ – schön wär`s.
Ja, den letzten Auslauf habe ich gerade erledigt und jetzt heißt es, „in Deckung gehen vor dem Mummenschanz“, vor bedrohlicher oder befohlener Heiterkeit.
Ist mir immer etwas unangenehm, nicht mit sondern über Leute zu lachen…
Und schon wieder ein KIkacke-Werbungs-Artikelchen und Beispringer aus der PR-Blase.
Willst Du ein Produkt breit vermarkten, mach es in alle Munde. Jeder der darüber absabbert macht Werbung dafür. Egal ob kritisch oder verherrlichend. Alles ist PR dafür.
Die Verdummung durch KI-Besinnungsartikelchen ist episch.