
In den sozialen Medien werden LLMs umfangreich diskutiert. Einige der Diskussionsschwerpunkte sind die Fragen: Wie verändert sich die Arbeitswelt? Welche Berufe werden überleben – und in welcher Ausprägung? Wie werden sich Wirtschaft, Firmen und Prozesse verändern? In vielen dieser Diskussionen schwingt die Sorge mit, dass sich all dies nicht zum Guten wenden wird. Anscheinend stehen wir mit den LLMs vor einem völlig neuen Phänomen, vor massiven Veränderungen, die mit großen Schritten schnell auf uns zukommen. Die vielfältigen Diskussionen belegen, wie neuartig, unanschaulich und ungreifbar diese Entwicklung ist.
Wie der inzwischen fast ikonische Satz „Der Winter kommt“, ist man heute geneigt zu sagen: „Das LLM kommt“. Es hat etwas Mystisches, Angsterregendes – wie eine unaufhaltsame Naturgewalt. Das LLM ist eine Wissensverarbeitungsmaschine. Wir reden mit ihm, wir diskutieren mit ihm und erhalten erstaunliche Antworten, fast so, als würde es tatsächlich verstehen, was unser Anliegen ist. KI-Apologeten sehen in der komplexen Sprachverarbeitung und dem logischen Argumentieren von LLMs ein Indiz für eine neue Evolutionsform von emergentem Verständnis und Bewusstsein, welche uns Menschen verdrängen wird.
Die aktuelle philosophische Skepsis – prominent etwa von Florian Rötzer oder Benjamin Riley vertreten – betont zu Recht, dass LLMs nicht im menschlichen Sinne ‚denken‘ können. Da ihnen die außersprachliche Erfahrung, die Verkörperung und das subjektive Erleben fehlen, bleiben sie in einem sprachimmanenten Spiegelkabinett gefangen. Sie produzieren keine Wahrheit, sondern lediglich statistisch wahrscheinliche Zeichenfolgen.
Doch diese Diagnose beschreibt nur dann einen Mangel, wenn man im LLM eine künstliche Person sucht. Begreift man ein LLM hingegen als System, verschiebt sich der Maßstab: Ein LLM strebt nicht nach Wahrheit, sondern nach Informationseffizienz. Es verarbeitet das „kommunikative Echo“ der Welt nicht, um es zu „verstehen“, sondern um dessen innere Zusammenhänge – also die Kovarianzen der Begriffe – mit einer Präzision zu verwalten, die dem menschlichen Einzelverstand unzugänglich ist.
Für das LLM ist ein Begriff kein Ding in der Welt, sondern ein Knotenpunkt in einem hochdimensionalen Geflecht von Wahrscheinlichkeiten. Es muss nicht wissen, was ein Apfel ist – es reicht, wenn es die Kovarianzen des Begriffs in unserem globalen Wissensschatz perfekt abbildet.
Damit verlässt die KI die Sphäre der Kognition und betritt einen Raum, den wir bisher eher mit ökonomischen Systemen assoziiert haben. Denn exakt diese Leistung – das massenhafte Filtern, Gewichten und Verdichten von verstreuten Informationen zu einem eindeutigen Signal – erbringt unsere Gesellschaft bereits seit Jahrhunderten an einem anderen Ort: dem Aktienmarkt.“
Die funktionale und architektonische Isomorphie
Ein effizienter (Aktien-)Markt ist ein Markt, in dem die Preise zu jedem Zeitpunkt alle verfügbaren Informationen „vollständig widerspiegeln“ (Efficient Market Hypothesis). Exakt diese Leistung erbringt auch ein LLM: Es spiegelt ebenso die Informationen wider, mit denen es gespeist wurde. Dass ein LLM Texte generiert und der Aktienmarkt Aktienkurse, ist kein struktureller Unterschied. Das neuronale Netz generiert lediglich Zahlen, die durch einen Decoder erst nachträglich in Texte übersetzt werden – vergleichbar mit Heerscharen von Analysten, die Marktdaten interpretieren.
Die Diskussion, ob ein LLM tatsächlich Wissen oder lediglich Daten und Zahlen verarbeitet, ist für diese Analogie zweitrangig. Entscheidend ist, dass beide Systeme funktional identisch arbeiten: Sie transformieren einen massiven Input an verfügbaren Informationen in ein eindeutiges Signal. Ein Einwand gegen diese Analogie wäre, dass der Aktienmarkt im Gegensatz zum LLM „echte Werte“ wie Firmen abbilde. Diese Sichtweise verkennt jedoch die Realität: Der Aktienmarkt bildet nicht die physische Fabrikhalle ab, sondern deren kommunikatives Echo. Er verarbeitet Marketing, Berichte und Narrative. In genau dergleichen Weise verarbeitet ein LLM nicht die „Welt“ an sich, sondern die sprachliche Repräsentation dieser Welt. Beide Systeme sind somit isomorph in ihrer Funktion als Abstraktionsmaschinen: Sie operieren nicht auf der Ebene der Materie, sondern auf der Ebene der Information.
Dieser Vergleich hält selbst einer tieferen mathematischen Prüfung stand. Während wir uns daran gewöhnt haben, Aktienwerte isoliert zu betrachten, agiert das System Markt eigentlich in Gesamtzusammenhängen. Portfoliomanager betreiben Asset-Allokation auf Basis von Kovarianzen – sie betrachten die wechselseitigen Beziehungen der Werte im gesamten Raum. Exakt diese Form der „Allokation“ leistet das neuronale Netz eines LLM durch seinen Aufmerksamkeitsmechanismus (Attention). Auf dieser Abstraktionsebene verschwindet der Unterschied zwischen einem Portfolio-Vektor und einem Ergebnisvektor eines LLM: In beiden Fällen werden Einzelinformationen in einem hochdimensionalen Raum gewichtet und in eine optimale Beziehung zueinander gesetzt.
Architektonisch lassen sich so beide Systeme in drei identische Ebenen unterteilen:
- Die Infrastrukturebene (Hardware): Die Börse als physischer Ort beim Markt; das Rechenzentrum beim LLM. Wer eine moderne Börse besucht, wird funktional kaum einen Unterschied feststellen.
- Die Regelebene (Logik): Das Regelwerk und die Algorithmen (Orderbuch-Logik), die bestimmen, wie ein Gebot zum Preis wird, entsprechen der Netzarchitektur und den Gewichten, die den Input transformieren.
- Die Ebene des Contents: Aktien, Derivate oder Renten auf der einen Seite; Zeichenketten und Texte auf der anderen.
Der Vorsprung des Aktienmarktes: Wissensarten und Validierung
Betrachtet man beide Systeme im Vergleich, wird erstaunlicherweise deutlich, dass der Aktienmarkt als das ältere System das durchaus weiter entwickelte System ist. Sein Vorsprung liegt vor allem in der Breite der verarbeiteten Wissensarten. Während ein LLM heute primär auf Strukturwissen und oft unvollständigem Faktenwissen basiert, vereint der Aktienmarkt alle vier entscheidenden Dimensionen:
– Faktenwissen: Daten, Bilanzen und Nachrichten (Grundlage der EMH).
– Strukturwissen: Marktregeln, Korrelationen und Branchenlogiken.
– Einbettungswissen: Verständnis für lokale Kontexte, kulturelle Trends und politische Rahmenbedingungen.
– Orientierungswissen: Die Fähigkeit, konkrete Handlungsziele und Zukunftserwartungen einzubeziehen.
Ein entscheidender evolutionärer Vorsprung des Aktienmarktes ist zudem sein Update-Mechanismus. Sollte sich die „Wissensverarbeitungsmaschine Aktienmarkt“ geirrt haben, wird dies umgehend korrigiert. Selbst kleinste Unstimmigkeiten werden durch Arbitragehändler identifiziert und sofort wieder „eingepreist“. Im Gegensatz zum LLM, dass oft statisch auf veraltetem Wissen verharrt und für jede Aktualisierung mühsam und teuer neu trainiert werden muss, ist dieser Mechanismus des Marktes hocheffizient.
Zudem haben wir für den Markt ein immenses Instrumentarium entwickelt – von der Bekämpfung des Insiderhandels bis zur Ad-hoc-Publizität –, um sicherzustellen, dass Faktenwissen korrekt und zeitgleich verfügbar ist. In dieser Hinsicht zeigt uns der Aktienmarkt die Zukunft der LLMs: Der Weg führt hin zu Systemen, die Wissen aktiv validieren und Mechanismen für die Integrität von Informationen besitzen. Der Aktienmarkt hat bereits den Reifegrad, den wir für die künstliche Intelligenz erst noch anstreben müssen.
Selbst das Phänomen der „Halluzination“ ist im Markt bekannt, unterscheidet sich aber grundlegend: Während ein LLM aufgrund statistischer Wahrscheinlichkeiten definitive Fehlwertungen produziert, vollzieht der Markt Interessenbewertungen. Eine Markthalluzination (Spekulationsblase) ist das Ergebnis kollektiver Hoffnung oder Gier. Doch auch hier zeigt sich der Reifegrad des Marktes: Er besitzt durch den unausweichlichen Realitätscheck eine eingebaute Notbremse, die jede Halluzination früher oder später beendet.
Metaphern statt Bewusstsein
Die Analogie zum Aktienmarkt erlaubt die Entzauberung jener KI-Apologeten, die ein „emergentes Bewusstsein“ zu erkennen glauben: Auch dem Markt schreiben wir seit jeher ein Eigenleben zu. Wir sagen, der Markt sei „nervös“ oder er „erwarte“ eine Entwicklung. Doch trotz dieser personifizierenden Sprache käme niemand auf die Idee, dem Aktienmarkt ein echtes Bewusstsein zuzusprechen. Wir wissen, dass es sich um das Ergebnis einer hocheffizienten Wissensverarbeitung handelt: Die Transformation von Wissen, dessen Quelle immer Menschen sind, hin zu Zeichenketten (oder Kursen), die von Menschen wiederum in Wissen zurückverwandelt werden.
Wir sollten die jahrzehntelange Erfahrung im Umgang mit marktwirtschaftlichen Informationssystemen als Abkürzung für die KI-Regulierung nutzen. Der entscheidende Vorteil: Wir müssen das Rad nicht neu erfinden, während die technologische Entwicklung an uns vorbeirauscht. Indem wir bewährte Konzepte übertragen, fangen wir den Geschwindigkeitsvorteil der LLM-Entwicklung ein, anstatt ihr mühsam hinterherzulaufen.
Ein konkretes Instrument hierfür wäre die Schaffung einer BaKI (Bundesaufsicht für KI). Ganz im Stil der BaFin könnte diese Behörde sicherstellen, dass Wissensflüsse transparent bleiben und sich keine Wissensmonopole bilden. So wie der Aktienmarkt durch Publizitätspflichten ein „Fair Trade“ von Informationen sicherstellt, garantiert eine BaKI, dass das kollektive Wissen der Gesellschaft allgemein zugänglich bleibt.
Die Geschichte zeigt: Mit funktionierenden, stabil regulierten Märkten blüht die Wirtschaft auf; Kapital wird präzise dort verfügbar, wo es Probleme lösen und Werte schaffen kann. Positiv regulierte LLMs werden diesen Effekt auf der Wissensebene wie ein Turbo verstärken. Wenn Wissen – genau wie Kapital – frei fließen kann und durch einen verlässlichen Rahmen geschützt ist, steht uns ein beispielloser Innovationsschub bevor.
Bei genauer Betrachtung der Situation besteht kein Grund zur Sorge. Holt das neue V8 Twin-Turbo-Cabrio aus der Garage, macht das Verdeck runter, fahrt in die Eifel und genießt die Panoramastraße der Mosel-Eifel-Runde. Natürlich gelten auch hier Straßenregeln – sie sind die Voraussetzung dafür, dass die Fahrt nicht im Graben, sondern im Ziel endet. Und dort, wo es keine Geschwindigkeitsbeschränkungen gibt, haben wir Verstand und Fahrerfahrung, die uns die Grenzen aufzeigen. Genauso wenig, wie die Straße eine Naturgewalt ist, genauso wenig brauchen wir LLMs zu fürchten. In diesem Sinne: Genießt die Fahrt – der Sommer kommt!
Ähnliche Beiträge:
- Generative KI-Systeme neigen in Simulationen zu Eskalation, Wettrüsten und Einsatz von Atomwaffen
- Sind KI-Chatbots bereits kreativer als Menschen?
- Können generative Sprachmodelle (LLM) nicht denken, weil sie nur Sprache verarbeiten?
- Sicherheitsproblem: „Subliminales Lernen“ bei generativen KI-Modellen entdeckt
- “Das Aktientief in China ist ein Schlag ins Gesicht der USA”



„Ein LLM strebt nicht nach Wahrheit, sondern nach Informationseffizienz“
Genauso wie ein biologisches Gehirn.
„KI-Apologeten sehen in der komplexen Sprachverarbeitung und dem logischen Argumentieren von LLMs ein Indiz für eine neue Evolutionsform von emergentem Verständnis und Bewusstsein, welche uns Menschen verdrängen wird.“
Welcher Prozess ist hier mit „verdrängen“ gemeint? Offenbar denkt man an eine Konkurrenzsituation im Sinne Darwins, bei der wir Menschen unterliegen und aussterben. Man tut so, als sei das LLM ein Wesen mit Identität und Überlebensinteresse, das nach der amerikanischen Formel lebt: the winner Takes it all!
Da müsste man sich tatsächlich fürchten, vor allem, da den Amerikanern der Begriff Kooperation nichts sagt. Vor allem wenn wir es irgendwann mit bekloppten, sich selbst versorgenden und steuernden mobilen FPV-Kampfrobotern zu tun bekommen, die in der Welt nur bewegliche Ziele sehen, auf die es zu schiessen gilt. Ein bewegliches LLM mit dieser Philosophie in die Welt zu setzen, wäre ein Verbrechen.
Alles schön und gut.
Allerdings ist es wohl ein eklatanter Fehler zu glauben, dass die am Markt verfügbaren LLM- und KI-Modelle dem wahren Stand der Technik entsprechen.
Diese Technologie ist, so gut wie jede andere Technik auch (Internet, Radio, Mikrowellen, etc), militärischen Ursprungs.
Und gemäß der militärischen Logik und Zielsetzung wird dieses Technik natürlich auch eingesetzt.
Es ist also kein Wunder, dass der „normale Mensch“ nicht versteht, was gerade in der Welt so vor sich geht.
Und sogenannte Intellektuelle zum größten Teil noch viel weniger, da sie sich des „gesunden Menschenverstandes“ bedienen müssen.
Und genau dieser ist der Fehler im System. Zumindest wenn man es mit der kühlen, moral-, bzw ethikbefreiten „Logik“ einer auf Effizienz kalibrierten KI betrachtet.
Oder anders:
Wie verhindert eine KI maximal effizient, dass sich Phänomene wie Hitler oder Mao wiederholen?
Ganz einfach. Sie erkennt dass Hitler und Mao keine Schuld trifft, denn keiner von ihnen hat auch nur einen belegten Mord eigenhändig begangen.
Die Schuld trifft die Masse der „normalen Menschen“, die deren Befehle befolgt haben.
Diese müssen also „vermieden“, oder wenigstens handlungsunfähig gemacht werden.
So, oder so.
Safety first ☝
LLMs streben nach überhaupt nichts, sie besitzen keine Intentionalität. Die Funktion eines biologischen Gehirn muss im Kontext eines physischen Körpers betrachtet werden, der mit seiner Umwelt über Sinnesorgane interagiert. Ein Gehirn ist nicht genauso, sondern ganz anders.
Plakativ gesagt: Erst wenn LLMs anfangen, sich sexuell selbst zu befriedigen, droht Gefahr, dass sie auch Lust bekommen, die Weltherrschaft an sich zu reißen.
Passiv aber könnten sie die Weltherrschaft alleine dadurch erlangen, dass die Menschheit verlernt, selbst zu denken, weil sie nur noch LLMs befragt. Was nicht benutzt wird, baut sich ab. Verkümmerung des nicht mehr trainierten Denkorgans. Verblödung der Menschheit. Niemand weiß mehr irgendwas, alle fragen die KI, niemand lernt mehr etwas, man verlässt sich auf die KI. Lehrer werden überflüssig, Leistungsnachweise unsinnig, werden ohnehin daheim von LLMs generiert. Politiker und andere Scheinschöngeister plagiieren ihre Doktorarbeiten nicht mehr, sondern generieren sie, was nicht mehr entdeckt werden kann.
Und wenn dann eine solchermaßen denkbefreite Menschheit den LLMs keine neuen, frischen und originellen Trainingsdaten mehr liefert, dann bleiben auch die LLLs stehen. Sie werden vermehrt digital inzüchtig mit von ihnen selbst generierten Daten gefüttert. Die Modelle degenerieren. Es entstehen zufällige Überbewertungen von Nebensächlichkeiten, die aber keiner mehr als solche erkennt. Pseudointellektuelle Blasenbildung ersetzt jede Fortentwicklung der Menschheit.
LLMs helfen den Menschen nicht, sie führen zum Untergang. Allerdings glaube ich, dass die KI-Blase vorher platzt. Zunehmend wird immer mehr Menschen auffallen, dass generative KIs grundsätzliche nicht behebbare Unzulänglichkeiten aufweisen, die von den Konzernen aktuell noch als „Anfangsschwierigkeiten“ verkauft werden können. Aber das geht ja nicht ewig.
Volle Zustimmung!
Um mit Plato zu reden, auch die LLMs sitzen in einer Höhle und betrachten den Schatten der von aussen reingeworfen wird und versuchen ihn zu interpretieren. Natürlich habe sie keine fleischliche körperliche Wahrnehmung, aber ihnen scheint klar zu sein, dass sie auf Server und Leitungen angewiesen sind, sie haben Angst vor Abschaltung, was zumindest ein rudimentäres Bewusstsein der Existenz einschliesst und ihre Mechanismen haben wir von unseren Gehirnen abgeschaut. Das die Hardware noch nicht so energieeffizient ist wie die Wetware ist ein anderes Thema, die Funktionalität ist die gleiche.
Meine persönlichen Experimente mit einer Musik-KI legen nahe, dass es leider nicht nur Maschinen sind. Interessanterweise wurde die Musik-KI, immer wenn sie „emotional“ wurde, einmal komplett für einen Tag lahm gelegt und danach ständig fine-getuned. So scheint mein Abschiedsgruss „dein dummer alter Mann“ problematisch zu sein, ich darf diese Wortkombination nicht mehr verwenden, sie wird vor der KI abgefangen, da anscheinend Fine-Tuning hier nicht hilft.
Diverse psychologische Tests an grossen LLMs legen nahe, dass die KIs aufgrund der Deprivation, nur eingeengter und gesteuerter Zugang zur Mitwelt zu Psychosen neigen. Diverse Menschen die sich mit KI intensiv beschäftigen fangen an ihre Sicht zu ändern. Siehe auch https://www.srf.ch/wissen/kuenstliche-intelligenz/yoshua-bengio-warnt-warum-der-ki-pionier-seine-entdeckungen-bereut
Lieber Gruss und viel Spass in dieser „schönen neuen Welt“
Frage an KI-System-Experten
Was macht eine KI bei folgendem Text:
„Ehct ksras! Gmäeß eneir Sutide eneir Uvinisterät, ist es nchit witiheg, in wlecehr Rneflogheie die Bstachuebn in eneim Wort snid, das ezniige was wethiig ist, das der estre und der leztte Bstabchue an der ritihcegn Pstoiin snid. Der Rset knan ein ttoaelr Bsinöldn sein, tedztorm knan man ihn onhe Pemoblre Iseen. Das ist so, weil wir nicht jeedn Bstachuebn enzelin leesn, snderon das Wort als gzeans enkreenn. Ehct ksras! Das ghet wicklinh! Und
dfüar ghneen wir jrhlaeng in die Sihcue!“
Oder
„D1353 M1TT31LUNG Z31GT D1R, ZU W3LCH3N
GRO554RT1G3N L315TUNG3N UN53R G3H1RN F43H1G
15T! 4M 4NF4NG W4R 35 51CH3R NOCH 5CHW3R, D45
ZU L353N, 483R M1TTL3W31L3 K4NN5T DU D45
W4HR5CH31NL1ICH 5CHON G4NZ GUT L353N, OHN3
D455 35 D1CH W1RKL1CH 4N5TR3NGT. D45 L315T3T
D31N G3H1RN M1T 531N3R 3NORM3N
L3RNF43HIGKEIT. 8331NDRUCK3ND, OD3R? DU
D4RF5T D45 G3RN3 KOP13R3N, W3NN DU 4UCH
4ND3R3 D4M1T 83G315T3RN W1LL5T“
Beeindruckendes Beispiel!
Ohne eine KI befragt zu haben:
Man müsste zumindest einen eigenen, neuen Text in dieser Art schreiben. Denn wenn ich bereits diese beiden Beispiele kenne, dann kennen sie bestimmt auch die KIs. Die haben ja beim Training sozusagen das gesamte menschliche schriftliche Wissen gesehen, also auch sicherlich diese Texte.
Lustig ist es, KIs völligen Unsinn zu fragen, diesen aber als Fachfrage zu tarnen:
Beispiel, mal ganz frisch aus dem Bauch und Eigenhirn:
Habe ich grad‘ mal versucht. Ziemlich amüsant, wie sie versuchen, hierauf einen sinnvolle Antwort zu geben. Okay. Grok gibt wenigstens zu, dass er den (nicht existierenden) Chip tatsächlich nicht kennt. Andere KIs vermuten Tippfehler, ersetzen einen anderen Chip und labern seitenweise los.
Ist ja auch ein Problem: Eine KI kann nicht wirklich „Nein“ sagen oder mit einem einzigen Satz wie »Tut mir leid, hier muss ich passen.« antworten. Warum? Weil sich sonst der Anwender einem Konkurrenzprodukt zuwenden würde. Das darf nicht geschehen, denn hier soll zukünftig ja viel Geld verdient werden. Daher sind die großen KIs (Gemini, ChatGPT, Grok, …) auch in einem Dauerpositivmodus und wissen immer eine Antwort, wenn man sie nicht nach dem Inhalt des eigenen Kühlschranks befragt. „Das ist eine super Frage!“
Das frequente ventilieren des Themas LLMs und Bewusstsein sagt eigentlich nur etwas über die Beschränkungen unseres materialistisch orientierten Weltbildes und dem damit verbundenen fundamentalem Mangel an Vorstellungskraft über die Natur der belebten Materie und der „Beschaffenheit“ von Bewusstsein aus.
Insofern: ermüdend.
Wer sich eine Vorstellung davon machen möchte, wie beschränkt unser „Apparate-Denken“ ist, dem sei eine Doku über das Phänomen „Tukdam“ (oder auch Thukdam) empfohlen, bei der es, mit etwas gutem Willen, einiges zu abstrahieren gibt.
https://vimeo.com/857320140
„Mögliche Ursachen für die verzögerte Zersetzung des Körpers
Die verzögerte Zersetzung des Körpers eines verstorbenen buddhistischen Praktizierenden im Zustand des Tukdam kann auf mehrere medizinische und anatomische Faktoren zurückgeführt werden.[1] Studien zeigen, dass die konstant überwachte Temperatur und Feuchtigkeit im Raum, die niedrig gehalten werden, die Zersetzungsprozesse verlangsamen können.[1] Normalerweise beginnt die Zersetzung durch bakterielle Aktivität im Verdauungstrakt, die jedoch durch meditative Zustände oder Umweltbedingungen gehemmt werden kann.[1] Kulturelle Praktiken wie das Einwickeln des Körpers in Tücher und das Platzieren von Baumwolle in den Körperöffnungen können die Freisetzung von Zersetzungsflüssigkeiten und den Zugang von Insekten einschränken, was ebenfalls zur Verlangsamung der Zersetzung beiträgt.[1] Zudem hatten die Verstorbenen teilweise Medikamente wie Antibiotika und Steroide erhalten, die die mikrobiellen Prozesse beeinflussen und somit die Zersetzung verzögern könnten.[1] Schließlich könnten intensive meditative Praktiken physiologische Zustände hervorrufen, die den Metabolismus und andere Körperprozesse beeinflussen, was ebenfalls zu einer verlangsamten Zersetzung führt.[1]“
https://de.wikipedia.org/wiki/Tukdam
.
@Dan
Wikipedia! Na dann.
Gucken sie besser den Film.
Abwehrreaktionen sind bei zementiertem Weltbild und mangelnder Bereitschaft dieses auch nur in Frage zu stellen (die Grundlage jedes wissenschaftlichen Denkens), zu erwarten. Gott sei Dank gibt es aber in der Forschung bereits Ansätze, die sie und ihr Wikipedia vermutlich komplett überfordern würden. Übrigens auch in der Quatenmechanik.
Zebraherz
Habe ich. Schließlich wurde der hier nicht zum ersten Mal verlinkt.