LLM

Die Markt-Maschine: Warum LLMs nicht denken, sondern Informationen „einpreisen“

Ein LLM strebt nicht nach Wahrheit, sondern nach Informationseffizienz. Es verarbeitet das „kommunikative Echo“ der Welt nicht, um es zu „verstehen“, sondern um dessen innere Zusammenhänge – also die Kovarianzen der Begriffe – mit einer Präzision zu verwalten, die dem menschlichen Einzelverstand unzugänglich ist.

mehr lesen

Können generative Sprachmodelle (LLM) nicht denken, weil sie nur Sprache verarbeiten?

Menschliches Denken geht auch ohne Sprache. Weil KI in Form von LLMs nur sprachliche Äußerungen lernt und in der Sprachblase bleibt, so wird behauptet, könne sie nicht denken, vor allem nichts Neues: „Entfernt man die Sprache aus einem großen Sprachmodell, dann hat man dort buchstäblich nichts mehr.“ Die KI selbst sieht das anders.

mehr lesen

Haben KI-Systeme einen freien Willen und können sie Meinungsfreiheit beanspruchen?

Trump will KI-Entwicklung von jeder Regulierung freistellen. Wenn sie auch nur einen funktionalen freien Willen haben, wie ein Philosoph behauptet, wird es mit der Verantwortung schwierig. Vor einem US-Gericht ging es darum, ob Äußerungen eines KI-Systems durch Meinungsfreiheit geschützte Sprache ist.

mehr lesen