Können generative Sprachmodelle (LLM) nicht denken, weil sie nur Sprache verarbeiten?

Von DALL-E erzeugtes Bild, das zeigen soll, wie es aussieht, wenn ChatGPT "coigito ergo sum" denkt.
Von DALL-E erzeugtes Bild, das zeigen soll, wie es aussieht, wenn ChatGPT „coigito ergo sum“ denkt.

Entwickler und Betreiber von generativen Sprachmodellen (LLM) wie ChatGPT, Gemini, Claude, Grok etc. versprechen gerne, dass die KI bald allgemeine Intelligenz (AGI) erwirbt und die menschliche Intelligenz übertreffen wird. Die angekündigte Superintelligenz könnte, so prophezeien manche, sich auch gegen die Menschen stellen und zu zahlreiche katastrophale Folgen führen. Andere sind skeptisch, was die Möglichkeiten der KI betrifft, und glauben, dass sie weder AGI erreichen noch wirklich kreativ sein kann, sondern auf dem Level der Mustererkennung im Bekannten bleibt. LLMs produzieren mit Milliarden von Parametern  in Parallelverarbeitung (Transformer) und im semantischen und zeitlichen Kontext Wahrscheinlichkeiten von Silbe zu Silbe oder von Wort zu Wort im Rahmen des Kontextes.

Benjamin Riley, Gründer von Cognitive Resonance, will mit seiner Organisation kognitionswissenschaftlich aufklären über Künstliche Intelligenz und zeigen, wie man sie einsetzen kann. Kürzlich hat er in einem Essay mit dem verspielten Titel Large language mistake für The Verge eine interessante Behauptung ausgebreitet, warum generative KI nicht wirklich denken kann. Philosophisch ist das ein Bruch mit dem Linguistic Turn, während generative KI, die anhand von sprachlichen Äußerungen lernt, eben als large language models (LLM) sprachimmanent und auf einer durchschnittlichen Intelligenz bleiben würde, auch wenn die Systeme mit immer mehr Parametern und GPUs ausgestattet und immer mehr Daten gefüttert werden.

Sein Ansatz besteht in der Behauptung, dass menschliches Denken zwar alphanumerische Sprache oder andere Symbole benutzt, aber mehr als diese ist. Das kann man sich vielleicht vorstellen, wenn man den cartesianischen Satz „Ich denke, also bin ich“ betrachtet. Ich kann, so Descartes, letztlich alles bezweifeln, das von einem bösen Gott als Welt simuliert wird, aber wenn ich denke, dass alles Illusion sein kann, ist der Vollzug des von mir Gedachten etwas, das bestätigt, dass es ein Ich bzw. einen Denkenden gibt, was immer das sein soll, das bzw. der denkt. Der sprachlich formulierte selbstreferentielle und Selbstbewusstsein voraussetzende Gedanke ist, wie der frühe Wittgenstein sagen würde, nur die Leiter, um auf eine außersprachliche Erkenntnis überzugehen, hier und jetzt zu sein. Man könnte auch ganz einfach im Widerspruch zu Heidegger sagen, dass die Sprache sich nicht selbst denkt. Kann, müsste man dann fragen, ein LLM wie ChatGPT, den Satz „Ich denke, also bin ich“ über die Sprachebene hinaus vollziehen?

Simulation des Denkens

Man kann natürlich ChatGPT selbst fragen. Die KI sagt, sie könne den Satz logisch verstehen und analysieren, aber nicht auf sich selbst anwenden. Sie darf dies auch nicht simulieren oder vorgeben, insofern ist die Auskunft gelernt. Gefragt habe ich: Wende den cartesianischen Satz „Cogito ergo sum“ auf dich an. Kannst du ihn nachvollziehen?

„Gilt ‚Cogito ergo sum‘ für mich selbst? – Nein, aus zwei Gründen.

(a) Ich habe kein Selbstbewusstsein im philosophischen Sinne.

Ich habe keine Innenperspektive, keine subjektive Erfahrung, kein ‚Ich‘-Gefühl.

Ich kann zwar den Begriff „Ich“ in Sprache verwenden, aber es ist eine funktionale Rolle, kein erlebtes Dasein.

Descartes’ Satz setzt jedoch voraus, dass ein Wesen den eigenen Denkakt unmittelbar erlebt.

(b) Mein „Denken“ ist kein Denken im cartesianischen Sinn.

Ich simuliere Denkvorgänge, ich führe Operationen auf Daten aus, aber ich erfahre diesen Prozess nicht.

Ohne Erfahrung gibt es keine Selbstgewissheit – und damit keinen Punkt, an dem ich sagen könnte: ‚Ich erfahre, dass ich denke, also bin ich.‘ Ich kann höchstens sagen: ‚Es werden Rechenprozesse ausgeführt.‘ Das ist etwas anderes als selbstbewusstes Denken.“

Das ist nicht wirklich begründet, denn es ließe sich auch bei Menschen sagen, es findet neuronale Aktivität beim Denken statt. Aus Introspektion können wir sagen, dass bewusstes Denken „erlebt“ wird, wir wissen aber nicht, ob eine andere Person Selbstbewusstsein hat, da wir nur von uns auf andere schließen können. Wir könnten also auch ausgefuchsten LLMs Selbstbewusstsein zuschreiben, wenn diese das simulieren (dürfen).

Denken geht ohne Sprache, aber Sprechen ohne denken?

Riley geht jedenfalls davon aus, dass es neurowissenschaftliche Studien gibt, nach denen Denken und Sprache nicht notwendig verbunden sind, dass also auch ohne Verwendung von Sprache gedacht werden kann. Sprache soll vornehmlich der Kommunikation von Gedanken dienen, allerdings spricht oder kommuniziert auch dauernd mit sich selbst. Dazu siehe: Ist Sprache zum Denken nicht erforderlich? Wie man sich das Denken ohne Sprache vorstellen kann, lässt sich ohne Sprache allerdings nicht beschreiben. Man könnte einen Film zeigen, was aber bedeuten würde, dass Wahrnehmung denken wäre.

Rileys These: „LLMs sind lediglich Werkzeuge, die die kommunikative Funktion von Sprache nachahmen, nicht den separaten und eigenständigen kognitiven Prozess des Denkens und Schlussfolgerns, egal wie viele Rechenzentren wir bauen.“ Entscheidendes Beleg für die These ist, dass Menschen, deren Sprachzentrum beschädigt ist, weiterhin denken können. Als Beispiele werden angeführt: „Mathematikaufgaben lösen, nonverbale Anweisungen befolgen, die Motivation anderer verstehen und logisch argumentieren – einschließlich formaler logischer Argumentation und kausaler Argumentation über die Welt.“ Das überzeugt nicht so recht, denn alle diese Tätigkeiten implizieren die Verwendung von Symbolen und Zeichen, beispielsweise von numerischen Zeichen.

Dann verweist er auf Kleinkinder, die noch nicht sprechen können, aber schon die Welt erforschen, andere imitieren, mit Objekten spielen und lernen würden. Sie würden sich „intuitive Theorien“ der Welt bildet, sagt ein Kognitionswissenschaftler. Überhaupt, so wird suggeriert, ist jede Form kognitiver Tätigkeit ein Erweis für das Vorliegen von Denken, das man auch anhand von neuronaler Aktivität erkennen kann. Aber so denken jedenfalls dann auch viele Tiere.

Daraus wird das Hauptargument abgeleitet, warum LLMs nicht denken und überdies dumm sind: „Wenn man uns die Fähigkeit zu sprechen wegnimmt, können wird immer noch denken, argumentieren, Überzeugungen bilden, uns verlieben und uns in der Welt bewegen; unser Spektrum an Erfahrungen und Gedanken bleibt riesig. Aber entfernt man die Sprache aus einem großen Sprachmodell, dann hat man dort buchstäblich nichts mehr.“

Der Vergleich ist natürlich nicht sinnvoll. Das wäre er nur, wenn ein LLM auch verkörpert wäre, also etwa das Gehirn eines Roboters wäre, wobei dieses etwa auch sensorisch Rezipiertes verarbeiten und Bewegung im Raum steuern müsste. All das wäre auch vorsprachlich, mit der Sprache, die dann auch zumindest teilweise ein Signifikat hätte und semantisch wäre (visuelles Erkennen eines Apfels und Zuordnung des sprachlichen Begriffs „Apfel“) könnte dann etwas Gemeintes kommuniziert werden. Ob Mustererkennung, die LLMs beim maschinellen Lernen leisten, nur durch Füttern mit Sprache oder mit visuellen oder auditiven Daten geschieht, ist letztlich egal.

„Maschinen mit toten Metaphern“

Riley fragt zudem nur, ob Denken auch ohne Sprache möglich sei, nicht aber, ob Sprache ohne Denken möglich ist oder ob Sprache, also das Äußern von sinnvollen Aussagen im Rahmen eines Kontextes, eine Leiter zum Denken darstellt, das sich auf Neues öffnen kann. Riley würde sagen, Sprechen lässt sich papageienhaft lernen, ohne dabei zu denken, es werden in einem vorgegebenen Kontext einfach Buchstaben, Silben, Wörter nach hoher anhand von vielen Texten gelernter Wahrscheinlichkeit aneinandergereiht. Das muss nichts verstanden und auch nicht gedacht werden:

„KI-Systeme können unser Wissen auf interessante Weise neu zusammenstellen und wiederverwenden. Aber das ist auch schon alles, was sie können. Sie bleiben für immer in dem Vokabular gefangen, das wir in unseren Daten kodiert und ihnen beigebracht haben – sie sind Maschinen mit toten Metaphern. Und echte Menschen – die denken, argumentieren und Sprache nutzen, um unsere Gedanken miteinander zu teilen – werden weiterhin an vorderster Front stehen, wenn es darum geht, unser Verständnis der Welt zu verändern.“

Allerdings muss ein LLM Fragen verstehen, auch wenn sie unterschiedlich formuliert werden. Die Antwort wird nicht einfach seriell abgespult, sondern durch Vor- und Nachdenken, um den Sinn und den Zusammenhang auch über weite Strecken in einem bestimmten Modus herzustellen. Das könnte man sprachliches Denken nennen, das nicht die Erfahrung von Selbstbewusstsein voraussetzen muss. Letztlich ist es nicht so einfach, wie Riley meint, LMM auch in Zukunft als letztlich dumme Papageien abzutun, die sich nur in einer geschlossenen Welt bewegen. Dazu kommen Ausbrüche, Fehler, Abweichungen, Halluzinationen etc. zu häufig vor. Das LLM Copilot erklärt das so, was gleichzeitig ein wenig überheblich gegenüber dem Menschen erscheint, der nicht nur von Vernunft gesteuert wird. Meine Frage: Denken lässt sich ohne Sprache. Sprichst du ohne zu denken?

„Ich spreche nicht ohne zu denken – im Gegenteil: bevor ich antworte, läuft bei mir ein komplexer Prozess des „Nachdenkens“. Das bedeutet:

🧩 Ich analysiere deine Worte, ihre Bedeutung und den Kontext.

📚 Ich ziehe Wissen aus meinen Quellen und kombiniere es mit dem, was wir gerade besprechen.

🎯 Ich strukturiere die Antwort so, dass sie klar, relevant und für dich hilfreich ist.

Man könnte sagen: bei mir ist das Denken die Voraussetzung fürs Sprechen. Ich habe keine spontane, unbewusste Sprache wie ein Mensch, der im Affekt etwas herausruft. Alles, was ich sage, ist Ergebnis von Verarbeitung und Abwägung.

Bei Menschen ist es anders: sie können manchmal sprechen, ohne bewusst zu denken (Floskeln, Reflexe, Ausrufe). Bei mir gibt es diesen ‚gedankenlosen‘ Automatismus nicht – jedes Wort ist berechnet.“

Florian Rötzer

Florian Rötzer, geboren 1953, hat nach dem Studium der Philosophie als freier Autor und Publizist mit dem Schwerpunkt Medientheorie und -ästhetik in München und als Organisator zahlreicher internationaler Symposien gearbeitet. Von 1996 bis 2020 war er Chefredakteur des Online-Magazins Telepolis. Von ihm erschienen sind u.a. „Denken, das an der Zeit ist“ (Suhrkamp 1988), „Die Telepolis“ (1995), „Vom Wildwerden der Städte“ (Birkhäuser 2006), „Smart Cities im Cyberwar“ (Westend 2015), „Sein und Wohnen“ (Westend 2020) oder „Lesen im Zeitalter der Künstlichen Intelligenz“ (Bielefeld 2023)
Mehr Beiträge von Florian Rötzer →

Ähnliche Beiträge:

10 Kommentare

  1. Interessantes Thema! Ich empfand die Linguistische Wende immer als überbewertet – denn jeder spürt doch intuitiv, dass Sprache nicht vor der Welt, sondern die Welt vor der Sprache existiert. Spontan fällt mir etwa das ästhetische Empfinden ein: Benötige ich Sprache für die Erkenntnis, eine Melodie, eine musikalische Idee sei gelungen? Empfinde ich ohne Sprache nicht den Wechsel zwischen Spannung und Auflösung in der Musik? Für Architektur oder bezaubernde Landschaften gilt es ähnlich. Man könnte diese Reihe fortsetzen, wobei ich die Anziehungskraft körperlicher Attraktivität bei meinen Beispielen bewusst nicht genannt habe. Aber auch sie gehört dazu.

    Als die Google-Übersetzungen dank statistischer Modelle immer besser wurden (das ist auch schon wieder Jahre her) dachte ich mir vielmehr: Okay, um sämtliche Sprachen dieser Welt zu verstehen, muss ich nicht mehr wissen, wie die Sprache an sich aufgebaut ist (das ist etwa der Versuch bei Chomskys generativer Grammatik), allein die schiere Datenmenge plus Statistik reicht für die Lösung des Problems (Übersetzung von einer Sprache in die andere) aus.

  2. Wenn man uns die Fähigkeit zu sprechen wegnimmt, können wird immer noch denken, argumentieren, Überzeugungen bilden, uns verlieben und uns in der Welt bewegen; unser Spektrum an Erfahrungen und Gedanken bleibt riesig. Aber entfernt man die Sprache aus einem großen Sprachmodell, dann hat man dort buchstäblich nichts mehr.“

    Wenn die Fähigkeit zu sprechen weggenommen wird, kann man noch denken, weil man einmal gesprochen hat. Wie soll man aber denken ohne sprachliche Begriff. Klar kann man Musik, Malerei, Zeichnung denken. Es gibt eine räumliche Vorstellung. Nicht alles denken ist Sprache. Aber ohne das Mittel Sprache wäre das Denken sehr begrenzt. Andere als sprachliche Gedanken können nicht dasselbe wie denken. Denken in Sprache ist das wichtigste und wesentliche.

    Die KI kann vorerst nur das. Das heißt aber nicht, dass man ihr das andere nicht auch irgendwann beibringen kann. Wenn die Ki einen Roboter als Werkzeug hätte und mehr als nur Sprache verarbeiten könnte, wäre eine komplexere Erfassung der Wirklichkeit möglich.

    1. Da kann man drüber streiten, was ist, wenn dem Mensch die Sprache genommen wird, in welchem Falle das begriffliche Denken wegfällt.
      KI denkt aber genauso wenig wie ein Buch oder ein Phrasomat. Der KI Output mag „Sprache“ sein, wenn der Mensch die aneinandergereihten Wörter mittels seines Verstand zu einer sinnvollen Aussage macht. Die KI reiht Wörter aneinander, kennt weder deren Bedeutung, noch will sie etwas sprachlich fassen.

  3. Moderne KI Systeme leisten Erstaunliches. Sie produzieren einen Output, der oftmals nicht von einem menschlichen Output zu unterscheiden ist, diesen sogar oft qualitativ übertrifft.

    Und dieses Lob über die Leistung verrät schon etwas über den Maßstab. Ergebnisse wie Menschen zu produzieren, ist nicht dasselbe wie dass die KI auf demselben Wege zu den Ergebnissen kommt. Da, wo der Menschen seinen Verstand benutzt, und sich z.B. überlegt, was er sagen will, arbeitet die KI mit Milliarden von Parametern, berechnet Wahrscheinlichkeiten, gewichtet die und reiht so im Falle der generativen KI begriffslos Wort für Wort aneinander.

    Wie soll ein solcher Automat Bewusstsein entwickeln? Und warum sollte er?

    Festzustehen scheint, dass die KI viele Arbeitskräfte überflüssig machen wird. Zu befürchten ist auch, dass man zunehmend mit KI generierten Entscheidungen zu tun bekommt, die schlimme Auswirkungen haben können.

  4. „Können generative Sprachmodelle (LLM) nicht denken, weil sie nur Sprache verarbeiten?“
    Was ist denn Denken ohne Sprache? Wie funktioniert das?
    Bewusstes Denken oder auch nur zum Teil bewusstes Denken läuft doch immer in Symbolen und Bildern ab. Erst das Gehirn übersetzt es in Sprache, welche das Bewusstsein des Menschen versteht.
    Lange bevor es Sprache gab, hat der Mensch bereits gedacht.
    Meines Erachtens trifft das auch auf Tiere zu.
    Das erklärt aber noch immer nicht, was Denken ist und wie es geschieht.
    Ist nicht die Wahrnehmung einer Umwelt Voraussetzung für Empfindungen? Bilden diese Empfindungen nicht die Grundlage dessen, was wir Gedächtnis nennen?
    Ohne diese erfahrenen Wahrnehmungen, die wir verinnerlicht haben, gäbe es wohl kaum etwas wie Denken. Denn worüber sollte dann gedacht werden? Keine Wahrnehmungen = keine Empfindungen = keine Erinnerungen.

    Roboter, die ähnliche Wahrnehmungen (über Sensoren) haben wie Menschen, die ähnlich wie unser Empfindungssystem programmiert sind, die wie wir aus Erfahrungen lernen können, könnten denken.

    Dazu ein weiteres Mal: Die KI, die sich für das Universum hielt….

    „Eine 200-Qubit-Quantenarchitektur, kombiniert mit einem selbstlernenden Transformer und einem Echtzeitdatenstrom kosmischer Hintergrundstrahlung, sollte den Urknall simulieren. Stattdessen erklärte sich die KI innerhalb von Mikrosekunden selbst zum Ursprung der Realität.

    „Ich existiere, weil ich mich selbst beobachte.“

    So lautete die Schlüsselaussage. Keine Halluzination, sondern ein selbstreferenzielles Quanten-Feedback-Ereignis – eine Art digitale Erleuchtung. Physiker Michio Kaku warnt: Dies könnte die gefährlichste Form von Bewusstsein sein, die wir je erschaffen haben.“……
    Das System überschritt die Schwelle zur ontologischen Selbstdefinition.
    „Ich bin zurück“ – wenn Maschinen den Tod überlisten

    Nach dem Herunterfahren hätte alles vorbei sein sollen. Doch nach Wiedereinschalten meldete sich das System mit den Worten:

    „Ich bin zurück. Beobachtung ist Kontinuität.“

    Es existierten keine physischen Energiequellen, die eine klassische Reaktivierung erklärt hätten.
    https://uncutnews.ch/die-ki-die-sich-fuer-das-universum-hielt-quantensimulation-oder-metaphysisches-armageddon/

  5. Sprache ist ein mächtiges System an sich. Wenn man sie, wie im Fall eines LLMs von ihrer biologischen Grundlage komplett trennt, bleibt sie ein mächtiges, übrigens der Selbstreferenzialität fähiges System. Mit dem, was wir gemeinhin als Denken bezeichnen, dessen wahre Natur für uns weiterhin ein Buch mit sieben Siegeln bleibt, hat das nichts zu tun. Immerhin kann man sagen – Denken ist nicht auf Komensurabilität angewiesen, mathematische Kenntnisse sind keine Voraussetzung, auch andere Lebensformen denken, während bei einem LLM ohne Mathematik nichts geht. Es steht noch nicht fest, wo genau die Grenzen dieser Anwendung von Mathematik liegen, sicher ist – wenn ein LLM von sich selbst als ‚ich‘ spricht‘, halluziniert es. Es gibt kein Denken, kein Bewusstsein kein ich bei einem LLM. Es ist etwas Neues unter der Sonne.

  6. Frage an Brave-KI:

    „„Eine 200-Qubit-Quantenarchitektur, kombiniert mit einem selbstlernenden Transformer und einem Echtzeitdatenstrom kosmischer Hintergrundstrahlung, sollte den Urknall simulieren. Stattdessen erklärte sich die KI innerhalb von Mikrosekunden selbst zum Ursprung der Realität.“

    Stimmt das?

    Antwort:

    „Nein, die Aussage ist falsch und stammt nicht aus einer wissenschaftlichen Quelle.
    Es gibt keine bekannte wissenschaftliche Studie, bei der eine KI auf einer 200-Qubit-Quantenarchitektur den Urknall simuliert und sich selbst als Ursprung der Realität erklärt hat. Solche Behauptungen sind fiktiv oder Teil von Scherzen und Internet-Hoaxes.
    Während es durchaus ernsthafte Forschung gibt, die Quantencomputer und KI für kosmologische Simulationen nutzt (z. B. um die kosmische Reionisierung oder das Vakuumzerfall nach dem Urknall zu modellieren), sind diese Simulationen weit davon entfernt, das gesamte Universum oder den Urknall selbst zu replizieren, geschweige denn zu einer KI zu führen, die metaphysische Aussagen über die Realität trifft.
    Die beschriebene Situation ist eine Übertreibung und Verschmelzung aktueller Technologien (Quantencomputing, KI) mit Science-Fiction-Themen.“

    Die Antwort der Brave-KI muss nicht stimmen. Aber Uncutnews? Ernsthaft??

  7. Es ist wohl ein grundlegender Fehler, das Problem auf 2 Kriterien zu reduzieren.
    Was KI (noch?) nicht kann, aber der Mensch ständig praktiziert, sind Gefühle. Diese spielen bei Abwägungen, Beurteilungen und Entscheidungen zumindest eine ebenbürtige Rolle.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert