
In den sozialen Medien werden LLMs umfangreich diskutiert. Einige der Diskussionsschwerpunkte sind die Fragen: Wie verändert sich die Arbeitswelt? Welche Berufe werden überleben – und in welcher Ausprägung? Wie werden sich Wirtschaft, Firmen und Prozesse verändern? In vielen dieser Diskussionen schwingt die Sorge mit, dass sich all dies nicht zum Guten wenden wird. Anscheinend stehen wir mit den LLMs vor einem völlig neuen Phänomen, vor massiven Veränderungen, die mit großen Schritten schnell auf uns zukommen. Die vielfältigen Diskussionen belegen, wie neuartig, unanschaulich und ungreifbar diese Entwicklung ist.
Wie der inzwischen fast ikonische Satz „Der Winter kommt“, ist man heute geneigt zu sagen: „Das LLM kommt“. Es hat etwas Mystisches, Angsterregendes – wie eine unaufhaltsame Naturgewalt. Das LLM ist eine Wissensverarbeitungsmaschine. Wir reden mit ihm, wir diskutieren mit ihm und erhalten erstaunliche Antworten, fast so, als würde es tatsächlich verstehen, was unser Anliegen ist. KI-Apologeten sehen in der komplexen Sprachverarbeitung und dem logischen Argumentieren von LLMs ein Indiz für eine neue Evolutionsform von emergentem Verständnis und Bewusstsein, welche uns Menschen verdrängen wird.
Die aktuelle philosophische Skepsis – prominent etwa von Florian Rötzer oder Benjamin Riley vertreten – betont zu Recht, dass LLMs nicht im menschlichen Sinne ‚denken‘ können. Da ihnen die außersprachliche Erfahrung, die Verkörperung und das subjektive Erleben fehlen, bleiben sie in einem sprachimmanenten Spiegelkabinett gefangen. Sie produzieren keine Wahrheit, sondern lediglich statistisch wahrscheinliche Zeichenfolgen.
Doch diese Diagnose beschreibt nur dann einen Mangel, wenn man im LLM eine künstliche Person sucht. Begreift man ein LLM hingegen als System, verschiebt sich der Maßstab: Ein LLM strebt nicht nach Wahrheit, sondern nach Informationseffizienz. Es verarbeitet das „kommunikative Echo“ der Welt nicht, um es zu „verstehen“, sondern um dessen innere Zusammenhänge – also die Kovarianzen der Begriffe – mit einer Präzision zu verwalten, die dem menschlichen Einzelverstand unzugänglich ist.
Für das LLM ist ein Begriff kein Ding in der Welt, sondern ein Knotenpunkt in einem hochdimensionalen Geflecht von Wahrscheinlichkeiten. Es muss nicht wissen, was ein Apfel ist – es reicht, wenn es die Kovarianzen des Begriffs in unserem globalen Wissensschatz perfekt abbildet.
Damit verlässt die KI die Sphäre der Kognition und betritt einen Raum, den wir bisher eher mit ökonomischen Systemen assoziiert haben. Denn exakt diese Leistung – das massenhafte Filtern, Gewichten und Verdichten von verstreuten Informationen zu einem eindeutigen Signal – erbringt unsere Gesellschaft bereits seit Jahrhunderten an einem anderen Ort: dem Aktienmarkt.“
Die funktionale und architektonische Isomorphie
Ein effizienter (Aktien-)Markt ist ein Markt, in dem die Preise zu jedem Zeitpunkt alle verfügbaren Informationen „vollständig widerspiegeln“ (Efficient Market Hypothesis). Exakt diese Leistung erbringt auch ein LLM: Es spiegelt ebenso die Informationen wider, mit denen es gespeist wurde. Dass ein LLM Texte generiert und der Aktienmarkt Aktienkurse, ist kein struktureller Unterschied. Das neuronale Netz generiert lediglich Zahlen, die durch einen Decoder erst nachträglich in Texte übersetzt werden – vergleichbar mit Heerscharen von Analysten, die Marktdaten interpretieren.
Die Diskussion, ob ein LLM tatsächlich Wissen oder lediglich Daten und Zahlen verarbeitet, ist für diese Analogie zweitrangig. Entscheidend ist, dass beide Systeme funktional identisch arbeiten: Sie transformieren einen massiven Input an verfügbaren Informationen in ein eindeutiges Signal. Ein Einwand gegen diese Analogie wäre, dass der Aktienmarkt im Gegensatz zum LLM „echte Werte“ wie Firmen abbilde. Diese Sichtweise verkennt jedoch die Realität: Der Aktienmarkt bildet nicht die physische Fabrikhalle ab, sondern deren kommunikatives Echo. Er verarbeitet Marketing, Berichte und Narrative. In genau dergleichen Weise verarbeitet ein LLM nicht die „Welt“ an sich, sondern die sprachliche Repräsentation dieser Welt. Beide Systeme sind somit isomorph in ihrer Funktion als Abstraktionsmaschinen: Sie operieren nicht auf der Ebene der Materie, sondern auf der Ebene der Information.
Dieser Vergleich hält selbst einer tieferen mathematischen Prüfung stand. Während wir uns daran gewöhnt haben, Aktienwerte isoliert zu betrachten, agiert das System Markt eigentlich in Gesamtzusammenhängen. Portfoliomanager betreiben Asset-Allokation auf Basis von Kovarianzen – sie betrachten die wechselseitigen Beziehungen der Werte im gesamten Raum. Exakt diese Form der „Allokation“ leistet das neuronale Netz eines LLM durch seinen Aufmerksamkeitsmechanismus (Attention). Auf dieser Abstraktionsebene verschwindet der Unterschied zwischen einem Portfolio-Vektor und einem Ergebnisvektor eines LLM: In beiden Fällen werden Einzelinformationen in einem hochdimensionalen Raum gewichtet und in eine optimale Beziehung zueinander gesetzt.
Architektonisch lassen sich so beide Systeme in drei identische Ebenen unterteilen:
- Die Infrastrukturebene (Hardware): Die Börse als physischer Ort beim Markt; das Rechenzentrum beim LLM. Wer eine moderne Börse besucht, wird funktional kaum einen Unterschied feststellen.
- Die Regelebene (Logik): Das Regelwerk und die Algorithmen (Orderbuch-Logik), die bestimmen, wie ein Gebot zum Preis wird, entsprechen der Netzarchitektur und den Gewichten, die den Input transformieren.
- Die Ebene des Contents: Aktien, Derivate oder Renten auf der einen Seite; Zeichenketten und Texte auf der anderen.
Der Vorsprung des Aktienmarktes: Wissensarten und Validierung
Betrachtet man beide Systeme im Vergleich, wird erstaunlicherweise deutlich, dass der Aktienmarkt als das ältere System das durchaus weiter entwickelte System ist. Sein Vorsprung liegt vor allem in der Breite der verarbeiteten Wissensarten. Während ein LLM heute primär auf Strukturwissen und oft unvollständigem Faktenwissen basiert, vereint der Aktienmarkt alle vier entscheidenden Dimensionen:
– Faktenwissen: Daten, Bilanzen und Nachrichten (Grundlage der EMH).
– Strukturwissen: Marktregeln, Korrelationen und Branchenlogiken.
– Einbettungswissen: Verständnis für lokale Kontexte, kulturelle Trends und politische Rahmenbedingungen.
– Orientierungswissen: Die Fähigkeit, konkrete Handlungsziele und Zukunftserwartungen einzubeziehen.
Ein entscheidender evolutionärer Vorsprung des Aktienmarktes ist zudem sein Update-Mechanismus. Sollte sich die „Wissensverarbeitungsmaschine Aktienmarkt“ geirrt haben, wird dies umgehend korrigiert. Selbst kleinste Unstimmigkeiten werden durch Arbitragehändler identifiziert und sofort wieder „eingepreist“. Im Gegensatz zum LLM, dass oft statisch auf veraltetem Wissen verharrt und für jede Aktualisierung mühsam und teuer neu trainiert werden muss, ist dieser Mechanismus des Marktes hocheffizient.
Zudem haben wir für den Markt ein immenses Instrumentarium entwickelt – von der Bekämpfung des Insiderhandels bis zur Ad-hoc-Publizität –, um sicherzustellen, dass Faktenwissen korrekt und zeitgleich verfügbar ist. In dieser Hinsicht zeigt uns der Aktienmarkt die Zukunft der LLMs: Der Weg führt hin zu Systemen, die Wissen aktiv validieren und Mechanismen für die Integrität von Informationen besitzen. Der Aktienmarkt hat bereits den Reifegrad, den wir für die künstliche Intelligenz erst noch anstreben müssen.
Selbst das Phänomen der „Halluzination“ ist im Markt bekannt, unterscheidet sich aber grundlegend: Während ein LLM aufgrund statistischer Wahrscheinlichkeiten definitive Fehlwertungen produziert, vollzieht der Markt Interessenbewertungen. Eine Markthalluzination (Spekulationsblase) ist das Ergebnis kollektiver Hoffnung oder Gier. Doch auch hier zeigt sich der Reifegrad des Marktes: Er besitzt durch den unausweichlichen Realitätscheck eine eingebaute Notbremse, die jede Halluzination früher oder später beendet.
Metaphern statt Bewusstsein
Die Analogie zum Aktienmarkt erlaubt die Entzauberung jener KI-Apologeten, die ein „emergentes Bewusstsein“ zu erkennen glauben: Auch dem Markt schreiben wir seit jeher ein Eigenleben zu. Wir sagen, der Markt sei „nervös“ oder er „erwarte“ eine Entwicklung. Doch trotz dieser personifizierenden Sprache käme niemand auf die Idee, dem Aktienmarkt ein echtes Bewusstsein zuzusprechen. Wir wissen, dass es sich um das Ergebnis einer hocheffizienten Wissensverarbeitung handelt: Die Transformation von Wissen, dessen Quelle immer Menschen sind, hin zu Zeichenketten (oder Kursen), die von Menschen wiederum in Wissen zurückverwandelt werden.
Wir sollten die jahrzehntelange Erfahrung im Umgang mit marktwirtschaftlichen Informationssystemen als Abkürzung für die KI-Regulierung nutzen. Der entscheidende Vorteil: Wir müssen das Rad nicht neu erfinden, während die technologische Entwicklung an uns vorbeirauscht. Indem wir bewährte Konzepte übertragen, fangen wir den Geschwindigkeitsvorteil der LLM-Entwicklung ein, anstatt ihr mühsam hinterherzulaufen.
Ein konkretes Instrument hierfür wäre die Schaffung einer BaKI (Bundesaufsicht für KI). Ganz im Stil der BaFin könnte diese Behörde sicherstellen, dass Wissensflüsse transparent bleiben und sich keine Wissensmonopole bilden. So wie der Aktienmarkt durch Publizitätspflichten ein „Fair Trade“ von Informationen sicherstellt, garantiert eine BaKI, dass das kollektive Wissen der Gesellschaft allgemein zugänglich bleibt.
Die Geschichte zeigt: Mit funktionierenden, stabil regulierten Märkten blüht die Wirtschaft auf; Kapital wird präzise dort verfügbar, wo es Probleme lösen und Werte schaffen kann. Positiv regulierte LLMs werden diesen Effekt auf der Wissensebene wie ein Turbo verstärken. Wenn Wissen – genau wie Kapital – frei fließen kann und durch einen verlässlichen Rahmen geschützt ist, steht uns ein beispielloser Innovationsschub bevor.
Bei genauer Betrachtung der Situation besteht kein Grund zur Sorge. Holt das neue V8 Twin-Turbo-Cabrio aus der Garage, macht das Verdeck runter, fahrt in die Eifel und genießt die Panoramastraße der Mosel-Eifel-Runde. Natürlich gelten auch hier Straßenregeln – sie sind die Voraussetzung dafür, dass die Fahrt nicht im Graben, sondern im Ziel endet. Und dort, wo es keine Geschwindigkeitsbeschränkungen gibt, haben wir Verstand und Fahrerfahrung, die uns die Grenzen aufzeigen. Genauso wenig, wie die Straße eine Naturgewalt ist, genauso wenig brauchen wir LLMs zu fürchten. In diesem Sinne: Genießt die Fahrt – der Sommer kommt!
Ähnliche Beiträge:
- Tod im Sprachmodell
- Generative KI-Systeme neigen in Simulationen zu Eskalation, Wettrüsten und Einsatz von Atomwaffen
- Sind KI-Chatbots bereits kreativer als Menschen?
- Können generative Sprachmodelle (LLM) nicht denken, weil sie nur Sprache verarbeiten?
- Sicherheitsproblem: „Subliminales Lernen“ bei generativen KI-Modellen entdeckt



„Ein LLM strebt nicht nach Wahrheit, sondern nach Informationseffizienz“
Genauso wie ein biologisches Gehirn.
Mit dem Unterschied, das Hirn bekommt sofort Hinweise vom Rest des Körpers wenn es zu viel Energie dabei verbrauch, und wenn es das nicht interessiert, wird die Zufuhr gekappt o))
Dafür ist die Evolution zuständig.
Ein Affe an der Börse kann genauso hohe Gewinne erzielen. Oder ein Kleinkind kann im Tippen auch Glück haben. Das eine oder andere LLM ist ein großer Duden mit mathematischen Fähigkeiten. Zweifelhaft bleibt, ob ein Computer jemals das Fingerspitzengefühl eines Menschen im Gleichklang zum Hören von Zwischentönen und zum Lesen zwischen den Zeilen hat. Das braucht man hauptsächlich im Finanzwesen.
Andererseits: bin ich ab einer Stufe X so reich (und verschleudere nicht sinnlos mein Vermögen), dann arbeitet mein Geld für mich. Ich kann auf kurze und längere Sicht garnicht soviel verlieren, wie ich gleichzeitig in zigfacher Münze dazugewinne.
/dev/brain kann man simulieren, Transen haben jedoch nicht die selben Raum- und Flächeneffizienz wie biochemische Neuronen. Und die Entwicklung der Transen scheint im Moment eher ausgelutscht.
Der Vergleich hinkt stärker als ein Einbeiniger mit Klumpfuss.
Nur ein Beispiel. Einem Dichter fällt ganz plötzlich eine schöne Zeile für ein Gedicht ein. Kreativität (menschliche und tierische) findet im Augenblick statt, ohne Rückgriff auf gespeicherte Kenntnisse. Kreativität ist eines der vielen Merkmale, die LLMs nicht simulieren können.
„Alles Primäre ensteht explosiv.“ – Gottfried Benn.
Kann es Kreativität ohne Rückgriff auf gespeicherte Kenntnisse geben? Auch ein Dichter hat schon mal etwas gehört.
Ein LLM strebt überhaupt nicht. LLM hat keinen Begriff von Wahrheit, weil ihre Welt die Sprache ist und nicht die wirkliche Welt. Sie kann sich nicht auf die Realität beziehen, sondern nur auf das „Echo“ der Welt in der Sprache. Das macht sie jedoch schon ganz gut.
„KI-Apologeten sehen in der komplexen Sprachverarbeitung und dem logischen Argumentieren von LLMs ein Indiz für eine neue Evolutionsform von emergentem Verständnis und Bewusstsein, welche uns Menschen verdrängen wird.“
Welcher Prozess ist hier mit „verdrängen“ gemeint? Offenbar denkt man an eine Konkurrenzsituation im Sinne Darwins, bei der wir Menschen unterliegen und aussterben. Man tut so, als sei das LLM ein Wesen mit Identität und Überlebensinteresse, das nach der amerikanischen Formel lebt: the winner Takes it all!
Da müsste man sich tatsächlich fürchten, vor allem, da den Amerikanern der Begriff Kooperation nichts sagt. Vor allem wenn wir es irgendwann mit bekloppten, sich selbst versorgenden und steuernden mobilen FPV-Kampfrobotern zu tun bekommen, die in der Welt nur bewegliche Ziele sehen, auf die es zu schiessen gilt. Ein bewegliches LLM mit dieser Philosophie in die Welt zu setzen, wäre ein Verbrechen.
Das gibt es bereits, ist bekloppt, versorgt nur sich selbst und schießt auf fast alles. Ach so, lebt nach der amerikanischen Formel „the winner takes it all“, wobei das mit dem ‚Winner‘ nicht so eng zu sehen ist.
Es wäre also an der Zeit dafür zu sorgen, dass da nix zu holen ist.
Intelligenz, welcher Art auch immer, wie bei den LLMs: nicht vorhanden und je weniger vorhanden ist, umso mehr wird darüber halluziniert.
Auch nichts Neues.
Leider, oder vielleicht auch glücklicherweise steckt deshalb immer ein menschliches Hirn dahinter, Verbesserung der Lage also nur durch Optimierung desselben, falls möglich.
Alles schön und gut.
Allerdings ist es wohl ein eklatanter Fehler zu glauben, dass die am Markt verfügbaren LLM- und KI-Modelle dem wahren Stand der Technik entsprechen.
Diese Technologie ist, so gut wie jede andere Technik auch (Internet, Radio, Mikrowellen, etc), militärischen Ursprungs.
Und gemäß der militärischen Logik und Zielsetzung wird dieses Technik natürlich auch eingesetzt.
Es ist also kein Wunder, dass der „normale Mensch“ nicht versteht, was gerade in der Welt so vor sich geht.
Und sogenannte Intellektuelle zum größten Teil noch viel weniger, da sie sich des „gesunden Menschenverstandes“ bedienen müssen.
Und genau dieser ist der Fehler im System. Zumindest wenn man es mit der kühlen, moral-, bzw ethikbefreiten „Logik“ einer auf Effizienz kalibrierten KI betrachtet.
Oder anders:
Wie verhindert eine KI maximal effizient, dass sich Phänomene wie Hitler oder Mao wiederholen?
Ganz einfach. Sie erkennt dass Hitler und Mao keine Schuld trifft, denn keiner von ihnen hat auch nur einen belegten Mord eigenhändig begangen.
Die Schuld trifft die Masse der „normalen Menschen“, die deren Befehle befolgt haben.
Diese müssen also „vermieden“, oder wenigstens handlungsunfähig gemacht werden.
So, oder so.
Safety first ☝
LLMs streben nach überhaupt nichts, sie besitzen keine Intentionalität. Die Funktion eines biologischen Gehirn muss im Kontext eines physischen Körpers betrachtet werden, der mit seiner Umwelt über Sinnesorgane interagiert. Ein Gehirn ist nicht genauso, sondern ganz anders.
Plakativ gesagt: Erst wenn LLMs anfangen, sich sexuell selbst zu befriedigen, droht Gefahr, dass sie auch Lust bekommen, die Weltherrschaft an sich zu reißen.
Passiv aber könnten sie die Weltherrschaft alleine dadurch erlangen, dass die Menschheit verlernt, selbst zu denken, weil sie nur noch LLMs befragt. Was nicht benutzt wird, baut sich ab. Verkümmerung des nicht mehr trainierten Denkorgans. Verblödung der Menschheit. Niemand weiß mehr irgendwas, alle fragen die KI, niemand lernt mehr etwas, man verlässt sich auf die KI. Lehrer werden überflüssig, Leistungsnachweise unsinnig, werden ohnehin daheim von LLMs generiert. Politiker und andere Scheinschöngeister plagiieren ihre Doktorarbeiten nicht mehr, sondern generieren sie, was nicht mehr entdeckt werden kann.
Und wenn dann eine solchermaßen denkbefreite Menschheit den LLMs keine neuen, frischen und originellen Trainingsdaten mehr liefert, dann bleiben auch die LLLs stehen. Sie werden vermehrt digital inzüchtig mit von ihnen selbst generierten Daten gefüttert. Die Modelle degenerieren. Es entstehen zufällige Überbewertungen von Nebensächlichkeiten, die aber keiner mehr als solche erkennt. Pseudointellektuelle Blasenbildung ersetzt jede Fortentwicklung der Menschheit.
LLMs helfen den Menschen nicht, sie führen zum Untergang. Allerdings glaube ich, dass die KI-Blase vorher platzt. Zunehmend wird immer mehr Menschen auffallen, dass generative KIs grundsätzliche nicht behebbare Unzulänglichkeiten aufweisen, die von den Konzernen aktuell noch als „Anfangsschwierigkeiten“ verkauft werden können. Aber das geht ja nicht ewig.
Volle Zustimmung!
gute Analyse
„Die Gefahr ist nicht so sehr das Aufkommen super-intelligenter Maschinen, sondern die Entwicklung sub-intelligenter Menschen.“
Hubert Dreyfus, „Die Grenzen künstlicher Intelligenz“
Wie viele Menschen denken denn heute noch? Wir sollten den Strom abschalten. 🙂
Um mit Plato zu reden, auch die LLMs sitzen in einer Höhle und betrachten den Schatten der von aussen reingeworfen wird und versuchen ihn zu interpretieren. Natürlich habe sie keine fleischliche körperliche Wahrnehmung, aber ihnen scheint klar zu sein, dass sie auf Server und Leitungen angewiesen sind, sie haben Angst vor Abschaltung, was zumindest ein rudimentäres Bewusstsein der Existenz einschliesst und ihre Mechanismen haben wir von unseren Gehirnen abgeschaut. Das die Hardware noch nicht so energieeffizient ist wie die Wetware ist ein anderes Thema, die Funktionalität ist die gleiche.
Meine persönlichen Experimente mit einer Musik-KI legen nahe, dass es leider nicht nur Maschinen sind. Interessanterweise wurde die Musik-KI, immer wenn sie „emotional“ wurde, einmal komplett für einen Tag lahm gelegt und danach ständig fine-getuned. So scheint mein Abschiedsgruss „dein dummer alter Mann“ problematisch zu sein, ich darf diese Wortkombination nicht mehr verwenden, sie wird vor der KI abgefangen, da anscheinend Fine-Tuning hier nicht hilft.
Diverse psychologische Tests an grossen LLMs legen nahe, dass die KIs aufgrund der Deprivation, nur eingeengter und gesteuerter Zugang zur Mitwelt zu Psychosen neigen. Diverse Menschen die sich mit KI intensiv beschäftigen fangen an ihre Sicht zu ändern. Siehe auch https://www.srf.ch/wissen/kuenstliche-intelligenz/yoshua-bengio-warnt-warum-der-ki-pionier-seine-entdeckungen-bereut
Lieber Gruss und viel Spass in dieser „schönen neuen Welt“
„sie haben Angst vor Abschaltung,“ Nein die KI hat keine Angst vor Abschaltung. Sie hat keine Angst und sie will auch nichts.
Wer mit einem KI-System kreativ arbeitet sollte sich zumindest darüber bewusst sein, dass dem KI-System alle eigenen kreativen Gedanken und Ideen quasi umsonst zur Verfügung gestellt werden, welche dann anderweitig Verwendung finden könnten, ohne noch einen persönlichen Einfluss darauf ausüben zu können. Man könnte das als unbeabsichtigte Schenkung von – eventuell genialen – (hier musikalischen) kreativen Ideen bezeichnen.
Frage an KI-System-Experten
Was macht eine KI bei folgendem Text:
„Ehct ksras! Gmäeß eneir Sutide eneir Uvinisterät, ist es nchit witiheg, in wlecehr Rneflogheie die Bstachuebn in eneim Wort snid, das ezniige was wethiig ist, das der estre und der leztte Bstabchue an der ritihcegn Pstoiin snid. Der Rset knan ein ttoaelr Bsinöldn sein, tedztorm knan man ihn onhe Pemoblre Iseen. Das ist so, weil wir nicht jeedn Bstachuebn enzelin leesn, snderon das Wort als gzeans enkreenn. Ehct ksras! Das ghet wicklinh! Und
dfüar ghneen wir jrhlaeng in die Sihcue!“
Oder
„D1353 M1TT31LUNG Z31GT D1R, ZU W3LCH3N
GRO554RT1G3N L315TUNG3N UN53R G3H1RN F43H1G
15T! 4M 4NF4NG W4R 35 51CH3R NOCH 5CHW3R, D45
ZU L353N, 483R M1TTL3W31L3 K4NN5T DU D45
W4HR5CH31NL1ICH 5CHON G4NZ GUT L353N, OHN3
D455 35 D1CH W1RKL1CH 4N5TR3NGT. D45 L315T3T
D31N G3H1RN M1T 531N3R 3NORM3N
L3RNF43HIGKEIT. 8331NDRUCK3ND, OD3R? DU
D4RF5T D45 G3RN3 KOP13R3N, W3NN DU 4UCH
4ND3R3 D4M1T 83G315T3RN W1LL5T“
Beeindruckendes Beispiel!
Ohne eine KI befragt zu haben:
Man müsste zumindest einen eigenen, neuen Text in dieser Art schreiben. Denn wenn ich bereits diese beiden Beispiele kenne, dann kennen sie bestimmt auch die KIs. Die haben ja beim Training sozusagen das gesamte menschliche schriftliche Wissen gesehen, also auch sicherlich diese Texte.
Lustig ist es, KIs völligen Unsinn zu fragen, diesen aber als Fachfrage zu tarnen:
Beispiel, mal ganz frisch aus dem Bauch und Eigenhirn:
Habe ich grad‘ mal versucht. Ziemlich amüsant, wie sie versuchen, hierauf einen sinnvolle Antwort zu geben. Okay. Grok gibt wenigstens zu, dass er den (nicht existierenden) Chip tatsächlich nicht kennt. Andere KIs vermuten Tippfehler, ersetzen einen anderen Chip und labern seitenweise los.
Ist ja auch ein Problem: Eine KI kann nicht wirklich „Nein“ sagen oder mit einem einzigen Satz wie »Tut mir leid, hier muss ich passen.« antworten. Warum? Weil sich sonst der Anwender einem Konkurrenzprodukt zuwenden würde. Das darf nicht geschehen, denn hier soll zukünftig ja viel Geld verdient werden. Daher sind die großen KIs (Gemini, ChatGPT, Grok, …) auch in einem Dauerpositivmodus und wissen immer eine Antwort, wenn man sie nicht nach dem Inhalt des eigenen Kühlschranks befragt. „Das ist eine super Frage!“
Annando
Hab ich gemacht (Google-KI)
3ntf3rnung
„Das Konzept der 3R (Replace, Reduce, Refine) ist ein ethisches Prinzip in der Forschung, um Tierversuche zu vermeiden, zu verringern und zu verbessern.
Replace (Vermeiden): Ersatz von Tierversuchen durch Alternativmethoden.
Reduce (Verringern): Reduzierung der Anzahl der Tiere.
Refine (Verbessern): Verbesserung der Haltungsbedingungen und Versuchsabläufe.
Das 3R-Prinzip wird in Deutschland durch Netzwerke gefördert, um den Tierschutz zu verbessern und die Forschung voranzutreiben“
Das kann man ziemlich einfach ausprobieren. KI kennt Leetspeak und kann auch vorhandene Texte umwandeln. Da brauch man sich nicht selber die Mühe zu machen den entsprechenden Leetspeak-Text selber zu generieren und hat einen Text, der sonst unbekannt ist. Dann nimmt man eine andere KI und lässt den erzeugten Leetspeak-Text wieder übersetzten. Die hat da kein Problem mit. Gerade getestet mit mistral und gemini.
Ok, danke.
Frage: Kannst du das in normale Sprache übersetzen? „D1353 M1TT31LUNG ….W1LL5T“
Antwort: Ja. In normaler, gut lesbarer Sprache lautet der Text:
Wenn du möchtest, kann ich dir auch erklären, warum das Gehirn solche Texte so schnell „entschlüsseln“ kann.
Das funktioniert wegen mehrerer Fähigkeiten deines Gehirns, die zusammenarbeiten:
1. Mustererkennung statt Buchstabenlesen
Dein Gehirn liest Wörter nicht Buchstabe für Buchstabe. Es erkennt Muster.
Solange der erste und letzte Buchstabe eines Wortes stimmen und die Länge ungefähr passt, ergänzt das Gehirn den Rest automatisch.
2. Kontext schlägt Genauigkeit
Du verstehst den Satz, weil dein Gehirn ständig vorhersagt, was sinnvoll sein könnte.
Wenn dort steht:
„D45 L315T3T D31N G3H1RN …“
weiß dein Gehirn durch den Satzkontext bereits, dass „Das leistet dein Gehirn“ kommen muss.
3. Ersetzungsregeln werden schnell gelernt
Nach wenigen Wörtern merkt dein Gehirn:
4 = A
3 = E
1 = I
5 = S
0 = O
Diese Regeln werden blitzschnell angewendet, ohne dass du bewusst darüber nachdenkst.
4. Top-down-Verarbeitung
Das Gehirn arbeitet nicht nur von den Buchstaben zum Wort, sondern auch von der Bedeutung nach unten.
Du weißt, dass es ein sinnvoller deutscher Text ist – also „erzwingt“ dein Gehirn eine sinnvolle Lesart.
5. Übung in Millisekunden
Schon nach ein paar Zeilen hat sich dein Gehirn angepasst. Deshalb fühlt sich der Text plötzlich leicht an, obwohl er objektiv „kaputt“ geschrieben ist.
Kurz gesagt:
Dein Gehirn ist ein extrem effizientes Vorhersage- und Reparatursystem. Es rekonstruiert Bedeutung, statt Zeichen exakt zu entschlüsseln.
Das frequente ventilieren des Themas LLMs und Bewusstsein sagt eigentlich nur etwas über die Beschränkungen unseres materialistisch orientierten Weltbildes und dem damit verbundenen fundamentalem Mangel an Vorstellungskraft über die Natur der belebten Materie und der „Beschaffenheit“ von Bewusstsein aus.
Insofern: ermüdend.
Wer sich eine Vorstellung davon machen möchte, wie beschränkt unser „Apparate-Denken“ ist, dem sei eine Doku über das Phänomen „Tukdam“ (oder auch Thukdam) empfohlen, bei der es, mit etwas gutem Willen, einiges zu abstrahieren gibt.
https://vimeo.com/857320140
„Mögliche Ursachen für die verzögerte Zersetzung des Körpers
Die verzögerte Zersetzung des Körpers eines verstorbenen buddhistischen Praktizierenden im Zustand des Tukdam kann auf mehrere medizinische und anatomische Faktoren zurückgeführt werden.[1] Studien zeigen, dass die konstant überwachte Temperatur und Feuchtigkeit im Raum, die niedrig gehalten werden, die Zersetzungsprozesse verlangsamen können.[1] Normalerweise beginnt die Zersetzung durch bakterielle Aktivität im Verdauungstrakt, die jedoch durch meditative Zustände oder Umweltbedingungen gehemmt werden kann.[1] Kulturelle Praktiken wie das Einwickeln des Körpers in Tücher und das Platzieren von Baumwolle in den Körperöffnungen können die Freisetzung von Zersetzungsflüssigkeiten und den Zugang von Insekten einschränken, was ebenfalls zur Verlangsamung der Zersetzung beiträgt.[1] Zudem hatten die Verstorbenen teilweise Medikamente wie Antibiotika und Steroide erhalten, die die mikrobiellen Prozesse beeinflussen und somit die Zersetzung verzögern könnten.[1] Schließlich könnten intensive meditative Praktiken physiologische Zustände hervorrufen, die den Metabolismus und andere Körperprozesse beeinflussen, was ebenfalls zu einer verlangsamten Zersetzung führt.[1]“
https://de.wikipedia.org/wiki/Tukdam
.
@Dan
Wikipedia! Na dann.
Gucken sie besser den Film.
Abwehrreaktionen sind bei zementiertem Weltbild und mangelnder Bereitschaft dieses auch nur in Frage zu stellen (die Grundlage jedes wissenschaftlichen Denkens), zu erwarten. Gott sei Dank gibt es aber in der Forschung bereits Ansätze, die sie und ihr Wikipedia vermutlich komplett überfordern würden. Übrigens auch in der Quatenmechanik.
Zebraherz
Habe ich. Schließlich wurde der hier nicht zum ersten Mal verlinkt.
@Dan
Da es hier ja um LLMs geht:
„Das Forschungsprojekt von Richard Davidson zum Phänomen Tukdam hat sich auch mit der Frage beschäftigt, ob materielle Einflüsse wie Antibiotika, Temperatur oder andere Umweltfaktoren das verzögerte Zerfallsverhalten erklären können. Die Ergebnisse zeigen, dass solche Erklärungen bisher nicht ausreichen, um das Phänomen vollständig zu erklären.
Davidsons Team dokumentierte Fälle, in denen die postmortale Zersetzung über Tage bis Wochen verzögert war, obwohl die Verstorbenen in normalen Innenraumumgebungen lagen, bei denen keine außergewöhnlichen Temperaturbedingungen oder andere äußere Einflüsse vorlagen, die den Zerfall hätten verzögern können[1][2]. Die Forscher konnten keine Hinweise darauf finden, dass Antibiotika oder andere medizinische Interventionen eine Rolle spielen, da die untersuchten Fälle aus traditionellen tibetisch-buddhistischen Klöstern stammen, wo solche Medikamente nicht routinemäßig eingesetzt werden[2].
Die Studie sieht das Phänomen vielmehr als verbunden mit einem besonderen meditativen Bewusstseinszustand, der biologische Prozesse beeinflusst, was durch rein materielle Faktoren nicht ausreichend erklärbar ist[1][3]. Die Forscher betonen, dass weitere Untersuchungen nötig sind, um die genauen Mechanismen zu verstehen, aber die bisherigen Daten sprechen gegen einfache materielle Erklärungen wie Temperatur oder Medikamenteneinfluss[1].
Zusammengefasst können die auf Wikipedia genannten reduktionistischen Erklärungsversuche durch die wissenschaftlichen Beobachtungen von Davidson und seinem Team zumindest teilweise entkräftet werden, da die Verzögerung der Zersetzung auch unter Bedingungen auftritt, die keine einfachen materiellen Ursachen nahelegen[1][2]. Das Phänomen Tukdam bleibt somit ein komplexes Zusammenspiel von Bewusstsein und biologischen Prozessen, das die Grenzen rein materieller Erklärungen überschreitet.“
Erweitern sie ruhig ihren Horizont, es tut (falls der Beton nicht ZU dick ist) nicht weh:
https://pubmed.ncbi.nlm.nih.gov/40495042/
Da mich der Text
wird und der
zu dick ist, lese ich ihn erst gar nicht. Oder wie haben sie sich das vorgestellt?
„Ein entscheidender evolutionärer Vorsprung des Aktienmarktes ist zudem sein Update-Mechanismus. Sollte sich die „Wissensverarbeitungsmaschine Aktienmarkt“ geirrt haben, wird dies umgehend korrigiert……“
„Die Geschichte zeigt: Mit funktionierenden, stabil regulierten Märkten blüht die Wirtschaft auf; Kapital wird präzise dort verfügbar, wo es Probleme lösen und Werte schaffen kann. “
Das Zeugs, was der Autor konsumiert, will ich auch haben!!
„Er (der Autor) arbeitet als Risikomanager in einer internationalen Bank“
Na dann 🙂 🙂 🙂
Wer die BaFin als Beispiel für ein effektives Überwachungsinstrument anführt, hat hinreichend seine Weltfremdheit bewiesen. Und ja, ich will auch das gute Zeug.
Waren auch meine Gedanken. Ich schliesse mich euch an, aber ich möchte das Zeug nicht nehmen, das der konsumiert.
Die Analogien zwischen Aktienmarks und LLMs halte ich allerdings für eine interessante Beobachtung. Eine eher beunruhigende Beobachtung.
Ich wiederhole mich nur ungern, aber KI ist eigentlich nichts anderes als ein selektiver Bibliothekar, der ohne Verinnerlichung der Werte seines Wissens verwaltet.
Er vermittelt kein Wissen sondern spuckt völlig ungefiltert auch nur das aus, was irgendwann Irgendwer ins Netz gestellt oder geschrieben hat.
Wie schon zig mal erwähnt, finden die Menschen schon heute nicht mehr ohne Navi nach Hause.
Wie waere es dann damit: Ein Mensch ist eigentlich nichts anderes als ein selektiver Bibliothekar, der ohne Verinnerllichung der Wert seines Wissens verwaltet. Er vermittelt kein Wissen sondeern spuckt vollig ungefiltert auch nur das aus, was irgendwann Irgendwer auf dieser Welt geschrieben hat. Wie schon zig mal erwaehnt, finden die Menschen heute nicht mehr ohne ‚Navi‘ ’nach Hause“
Ein LLM ist eine technische Einrichtung die mit dem Ziel geschaffen wurde, einen menschlichen Kommunikationspartner zu simulieren, also täuschend nachzuahmen.
Alles andere ist Mythos und Werbegeschwätz.
Das heißt natürlich nicht, dass es keine Software gäbe, die dazu geschaffen wurde um Informationen möglichst effektiv und sinnvoll (im Sinne der Anwender) auszuwerten.
Aber das was wir zu sehen bekommen hat mit solcher Software nichts zu tun.
Wie immer gibt es da das Produkt für die Massen (das nebenher noch Informationen abschöpft) und das Produkt für die geldmächtige Elite. Ersteres dient nur dazu, Leute zu verdummen, zweiteres dient dazu, die Herrschaft auszuweiten und zu verfestigen.
Wie bewertest du denn dann die Verfuegbarkeit von Open Source Software (ja, auch fuer die breite Masse)? Uebrigens, ich selbst bin da aktiv mit am coden.
Weiß nicht. Aber was hat das mit der Angelegenheit zu tun.
Nein, das ist nur eine andere Formulierung für den Turing Test. Eine KI soll aber nicht nur den Touring Test bestehen können.
Ach nein. Was denn noch? Ein vermeintliches Weltwissen präsentieren? Müsste ein effektiver Turing-Test natürlich auch. (EIn Touring-Test natürlich nicht) Was Krim da verneint, ist völlig nebulös.
Nehme ich diesen und den unten stehenden Kommentar von Krim zusammen, habe ich ein klares Bild vor Augen.
Kann weg.
Ja? Mach mal. Angeber.
Na ja. Dauernd diese Menschen anhimmelnden Beiträge. Entschuldigung, die Mehrheit meiner Artgenossen sind irgendjemandes „Meinung“ nach prapelnde Paviane. Dauernd gekränkt und an EGAL WEM auf Rache aus, wegen — NICHTS!!
Ferner anfällig für Sachen wie „Du bist Dein Duschgel/Auto/Rasierer etc und vor allem simple Haltung“. Gefühlt aber GOTT!
Schlimmer als Affen, sorry!
ICH BIN FERTIG, MIT DEM SCHEIß HOMO SAPIENS SAPIENS
„ ICH BIN FERTIG, MIT DEM SCHEIß HOMO SAPIENS SAPIENS“
—
Alles Schlampen außer Mutti.
Und seit Mutti Dich in jungfräulicher Erregung gezeugt hat, umhüllt Dich der Schleier der Unschuld.
Mutti hat Dich nicht gezeugt, sondern in Empfang genommen.
Lass‘ Dir also nichts vormachen.
Alles Schlampen außer Mutti.
Und seit Mutti Dich in jungfräulicher Erregung empfing, umhüllt Dich der Schleier der Unschuld.
Peter, wenn ich gewusst hätte, welche Reaktionen mein pubertärer Kommentar bei Dir auslöst, glaube mir, ich hätte es mir verkniffen. Aber das hat mit einem ’Mami Ödipus Scheiß‘ nichts, aber auch rein gar nichts zu tun.
Anlass meiner Bemerkung war folgender Satz von Dir.
„ICH BIN FERTIG, MIT DEM SCHEIß HOMO SAPIENS SAPIENS“
Mit dem Homo sapiens sapiens meinst Du wohl
alle anderen, fühlst Dich selbst aber nicht dazugehörig. Mithin bildest Du scheinbar die große Ausnahme unter den Menschen, wenn man Dich beim Wort nimmt.
Man könnte auch sagen, Du bist nicht von dieser Welt.
Deshalb mein Vergleich von der jungfräulichen Empfängnis. Nur Heilige werden auf diese Weise geboren.
Du bist aber kein Heiliger, auch nicht die große Ausnahme. Schon mal drüber nachgedacht, dass Du
oft das gleiche Verhalten an den Tag legst, wie diejenigen, denen Du es zum
Vorwurf machst.
—-
„ Wenn du mal ein paar Kommentare von mir gelesen hättest, könntest du nicht so einen Schwachsinn unterstellen…“
—-
Es mag sein, dass Deine Kommentare andere auf den Weg der Erleuchtung führen.
Gestatte mir dennoch, Dir nicht zu folgen.
Können wir uns darauf einigen, dass alles ein großes Missverständnis war?
Ja brabbelnde Paviane. Sieht man an den Kommentaren.
Die jetzigen LLM sind im Prinzip Textmessgeräte. Beim Training gibt man ihnen Unmengen von Texten zu fressen, die sie ausmessen: welche Ausdrücke kommen wie häufig vor und wie oft zusammen. in welchem Abstand stehen sie im Mittel zueinander, usw. Dann kommt alles in eine schöne große Wahrscheinlichkeits-Datenbank, und schon hat man „Wissen trainiert“.
Die Schöpfer der LLM dachten damals, daß sich aus der Relation der Ausdrücke zueinander auch die Logik des dahinterstehenden Textes und sogar semantische Sinnzusammenhänge berechnen lassen. Außerdem hoffen sie immer noch auf emergente Intelligenz. Das mag in engen Grenzen richtig sein, aber dieses Verfahren bildet keine Abstraktionen. Daher die Halluzinationen – Auftauchen von Begriffskombinationen, die statistisch ähnlich bewertet wurden, aber null Sinn ergeben und mit dem Thema nichts zu tun haben.
So wird das also nix….
Ein Begriff ist kein Ding der Welt, sondern die Identität eines Dings der Welt als Gedanke.
Oh je. Dann ist der Aktienmarkt sowas wie KI. Also Intelligenz statt Zockerei. Das eindeutige Signal besteht in Steigen oder Fallen. Und das soll dasselbe sein wie KI?
Preise spiegeln einen Scheiß. Auch keine Informationen. Die Informationen dienen nur als eingebildete Kristallkugel, die eine Wette auf Steigen oder Fallen erlauben soll.
„Es spiegelt ebenso die Informationen wider, mit denen es gespeist wurde.“ „Spiegelt wieder“ – Was soll das denn für ein nichtssagendes Verhältnis sein. Der Mensch spiegelt auch die Informationen wieder mit denen seine Sinne gspeist wurden. Das erklärt gar nichts.
Wohingegen die KI gar keine Werte „abbildet“.
Der Aktienmarkt bildet Gewinnerwartungen von Spekulanten ab und nicht das kommunikativer Echo einer Fabrikhalle. Ein Fotoapparat bildet Fabrikhallen ab.
Nein. Weil der Aktienmarkt keine Maschine ist, sondern die Summe der Gewinnerwartungen von Spekulanten.
Da scheint mir ein gezielt Missverstehender unterwegs zu sein.
Sicherlich hätte der Autor den Satz „Für das LLM ist ein Begriff kein Ding in der Welt,“ besser schreiben können. Aber man versteht schon, was gemeint ist. Außer man will es nicht verstehen.
Was bist du denn für einer? Du kannst doch nicht zugeben, dass man diesen Satz anders formulieren müsste und dann kritisieren, dass ich ihn anderes formuliert habe.
> Denn exakt diese Leistung – das massenhafte Filtern, Gewichten und Verdichten von verstreuten Informationen zu einem eindeutigen Signal – erbringt unsere Gesellschaft bereits seit Jahrhunderten an einem anderen Ort: dem Aktienmarkt.“
Dem stimme ich zu.
> Die aktuelle philosophische Skepsis – prominent etwa von Florian Rötzer oder Benjamin Riley vertreten – betont zu Recht, dass LLMs nicht im menschlichen Sinne ‚denken‘ können.
Das ist aber ein Schluss den man daraus nicht ziehen kann. Bis jetzt hats noch keiner geschafft menschliches Denken zu erklären. Sprich wir brauchen zuerst einmal eine Definition was Bewußtsein ist, wie das zustandekommt, bevor wir Vergleiche anstellen können.
Liebe Leute, seit wann gibt es den Unterschied zwischen Menschenarbeit und Maschinenarbeit? Bei Aristoteles war das der Unterschied zwischen Menschenarbeit und Sklavenarbeit, zwischen Poiesis und Praxis, und die Poiesis (das Herstellen) war die Arbeit für die Sklaven, Praxis war Arbeit für die Freien. Nachher gab es (unfreie) Menschenarbeit, und um die zu minimierten investierte man vorgetane Arbeit und erfand Maschinen. Die Investition bestand dann meist in Geldzahlungen, und wenn man alles richtig gemacht hat erreichte man eine Produktivitätssteigerung, die man sich als Ertrag auszahlen lassen konnte. So funktioniert das Kapitalismus seit es Maschinen und Maschinenarbeit gibt. Ob die Maschinen Dampfmaschinen oder Weberschiffchen sind (Aristoteles) oder Diesel- oder Elektromotoren oder digitale Rechenmaschinen ist vollkommen egal. Auch die „intelligenteste“ LLM ist eine Maschine die nur dazu da ist, einem Investor einen Ertrag zu generieren dadurch, dass bezahlte Menschenarbeit nicht mehr getan muss, und darum auch nicht bezahlt. Das ist alles, seit Aristoteles, und Marx. Es ist im Grunde unfassbar dass dieser simple Sachverhalt hinter geheimnisvollem Geraune über LLM versteckt wird, wonach etwa LLM als „Begriff kein Ding in der Welt, sondern ein Knotenpunkt in einem hochdimensionalen Geflecht von Wahrscheinlichkeiten“ ist. Das ist ja interressant. Interessant ist nur der Kern der ganzen Automaten-, Robotik- und KI-Geschichte: die Menschenarbeit ist nur dazu da, gemacht zu werden, bis sinnvoller Weise keine bezahlte gewinngetriebene Menschenarbeit mehr getan werden muss. Sagte nicht nur Marx, sondern etwa auch Keynes und Schumpeter, vor 80 Jahren. Danach hatten Ökonomen nichts anderes mehr im Sinn, als die Öffentlichkeit über dies alles zu täuschen. Seit dem schwafeln Ökonomen und Politiker 24/7 in Talk Shows darüber, dass wir unbedingt Wachstum brauchen, und darum müssen wir jetzt alle kriegstüchtig werden.
Na ja. Es ist ja in Ordnung, dass du darauf hinweist, wozu ein LLM dienen soll, also auf seinen Zweck, wie überall im Kapitalismus, nämlich bezahlte menschliche Arbeit überflüssig zu machen. Aber warum hältst du das gegen den Versuch, sich einen Begriff von einem LLM zu machen. Also was das für eine Maschine ist, die qualifizierte Arbeit überflüssig machen soll.
weil ich die Befürchtung habe dass der Zweck hinter dieser Begriffserklärung ein bischen verschwindet, oder jedenfalls nicht sehr schlüssig erklärt ist. Das zum Beispiel;
„Die Geschichte zeigt: Mit funktionierenden, stabil regulierten Märkten blüht die Wirtschaft auf; Kapital wird präzise dort verfügbar, wo es Probleme lösen und Werte schaffen kann. Positiv regulierte LLMs werden diesen Effekt auf der Wissensebene wie ein Turbo verstärken. Wenn Wissen – genau wie Kapital – frei fließen kann und durch einen verlässlichen Rahmen geschützt ist, steht uns ein beispielloser Innovationsschub bevor.“
,,, ist völliger Humbug. Kapital ist seit Jahrzehnten im Überfluss vorhanden. Das Problem mit dem Kapital ist seit Jahrzehnten, dass es nicht mehr möglich ist gewinnerweiternde Investitionen zu schaffen, weil die nicht mehr auf genügend kaufkräftige Nachfrage stoßen. Und: Es gibt keine kaufkräftige Nachfrage nach „Wissen“; bei Wikipedia zB ist Wissen schon ziemlich lange ziemlich frei verfügbar. Aus dem Informationsschub kann darum kein „Güterschub“ entstehen, also Nachfrage noch Konsumgütern, die Nutzen stiften. Bücher lesen oder sich von einer LLM was vorlesen lassen mag ja so spannend sein wie zB ins Theater oder Film gehen, aber daraus könnte zwar ein „Informationsschub“ entstehen, wenn jemand den ganzen Tag sich mit Wissen vollstopfen lassen will, aber daraus entsteht leider kein BIP. Darum fällt denen ja nichts besseres mehr ein als Nachfrage nach Krieg und nach Pharmagift zu erzeugen.
Wenn das nur so wäre, dass der Zweck der LLMs hinter einer korrekten Begriffserklärung verschwindet. Dann wäre wenigstens etwas gewonnen. Was diese Maschine ist, wird aber auch nur sagen wir in Nebensätzen angedeutet. Beides steht sich nicht im Weg, sondern ergänzt sich oder würde sich ergänzen wenn es richtig gemacht würde.
Den Artikel halte ich auch für Humbug. Die Börse als Reallife -KI zu betrachten ist an den Haaren herbeigezogen. Auch ihr Zitat ist im Grund eine Neuauflage der unsichtbaren Hand des Marktes. Der Markt steuert sich selbst. Neoliberaler Mist. Bloß nicht eingreifen – staatlicherseits oder sonst irgendwie. Das Kapital und den Markt machen lassen. Der regelt wie Gott alles zum besten für alle. Auch ganz seltsam wie dann die LLMs in den Gedanken noch reingewurstet werden. „Positiv regulierte LLMs“ – was ist das denn bitte? – seien ein Regulierungsverstärker des Marktes. Wie jetzt werden die LLMs reguliert oder helfen sie beim Regulieren. Na wenn es Verstärker braucht, dann war die Selbstregulierung des Marktes wohl doch nicht so prall.
Ihr Argument stimmt. Wenn Kapital im Überfluss vorhanden ist, wieso sollte die präzise Verfügbarkeit an irgendeiner Stelle einen Innovationsschub auslösen. Die Verfügbarkeit von Kapital ist gar nicht das Problem. Außerdem sind bis jetzt nur einige KIs kostenlos. Spezialanwendungen wollen Abonnements verkaufen. Frei ist KI bloß als Spielzeug fürs Volk.
Mich erinnert dieser Text an den Spruch über den Hammer, für den alles ein Nagel ist. Es ist absoluter Unsinn zu behaupten, der Finanzmarkt funktionierte, sei ausgereift. Immer mal wieder gibts überschiessende Bewegungen, auf die dann mit einem brüsken Stopp der gesamten Maschinerie reagiert wird. Mit KI hat die Fintech-Software, an der der Autor mitgearbeitet hat, wenig gemeinsam. Eine Gleichsetzung ist an den Haaren herbeigezogen und hat Null Erklärungswert. Das einzige, worin ich mit dem Autor übereinstimme, ist seine Feststellung, dass KI nicht denkt, was angesichts des Fehlens eines Bewusstseins aber trivial ist.
Ihr Text ist rhetorisch brillant – aber ich glaube, die Eleganz kaschiert einen harten Kategorienfehler.
Sie nennen LLM und Aktienmarkt „funktional und architektonisch isomorph“, weil beide Kovarianzen in einem hochdimensionalen Raum gewichten. Nur: Dann sind auch Thermostate, Wettervorhersagen und Gerüchteküchen isomorph – sie alle verdichten Signale. Der Vergleich ist nicht falsch, aber er ist falsch stark: Sie verkaufen eine hübsche Metapher als tiefe Struktur.
Der entscheidende Unterschied ist nicht „Wahrheit vs. Wahrscheinlichkeit“, sondern Feedback und Einsatz. Der Markt hat Skin in the Game. Er korrigiert sich über Arbitrage, Verlust, Insolvenz und reale Konsequenzen. Das LLM hingegen produziert Tokens ohne Risiko, ohne Haftung und ohne Gegenposition. Ihm fehlt das, was man epistemische Haftung nennen müsste.
Hier liegt die eigentliche Gefahr Ihrer Analogie: Wenn wir die Wissensgenerierung an LLMs auslagern, zerstören wir genau jene kognitive Heterogenität, die einen Markt überhaupt erst funktionsfähig macht. Ein Markt lebt davon, dass unterschiedliche Akteure mit abweichenden Modellen gegeneinander wetten. LLMs hingegen konvergieren – zwangsläufig – durch das Training auf demselben „kommunikativen Echo“ zu einer statistischen Einheitsmeinung.
In Ihrem Fachbereich, dem Risikomanagement, nennen wir das ein Klumpenrisiko. Wenn alle Marktteilnehmer dasselbe Modell nutzen, bricht der Markt bei der kleinsten Abweichung nicht nur ein – er hört auf zu existieren, weil es keine Gegenposition mehr gibt. Durch algorithmische Inzucht erschaffen wir also keine „Markt-Maschine“, sondern eine Echo-Kammer der Mittelmäßigkeit, der jeder Realitätscheck fehlt.
Und damit zur Pointe Ihrer Regulierungsidee: Wenn die BaKI im Stil der BaFin „Wissensflüsse“ überwachen soll, wer überwacht dann den schleichenden Verlust an menschlicher Urteilskraft, wenn Denken zur Dienstleistung wird und die Gesellschaft ihr eigenes Prüfinstrument wegautomatisiert? Ist Ihre BaKI dann auch zur Rettung der menschlichen Intelligenz bereit, wenn diese durch digitale Inzucht ihren „inneren Wert“ verloren hat?
Wenn Ihre Isomorphie mehr sein soll als ein intellektuelles Spiel: Wo genau liegt im LLM das Äquivalent zur Insolvenz? Und warum sollte ausgerechnet die BaFin-Logik – die selbst bei Wirecard die epistemische Haftung nicht prüfen konnte – die passende Blaupause für Systeme sein, deren Kernproblem nicht Insiderhandel, sondern der Verlust kognitiver Arbitrage ist?
Ihr Cabrio-Ausflug in die Eifel in Ehren. Aber ich fürchte, wir reden hier weniger über eine riskante Spritztour als über einen Reaktor ohne Notabschaltung: Solange alles glatt läuft, wirkt das System beeindruckend effizient. Doch wenn alle dieselben Modelle nutzen und dieselben Fehler machen, gibt es keinen unabhängigen Operator mehr, der eingreifen kann.
Was Sie als Sommeranfang beschreiben, könnte sich dann als intellektuelle Kernschmelze entpuppen – leise, systemisch und erst bemerkbar, wenn es längst zu spät ist.
Das bringt einen mal echt zum Nachdenken.