
Wenn Wissenschaft forscht, ob sich menschliches Verhalten vorhersagen lässt, um damit menschliche Kognition zu verstehen, dann liegt heutzutage nahe, dass es darum geht, Künstliche Intelligenz zu optimieren, die letztlich Menschen ersetzen oder übertrumpfen können soll. Das muss auch gar intendiert werden, um trotzdem so die Ergebnisse zu verwenden. Betrieben wird gewissermaßen Datenklau am menschlichen Gehirn, der zumindest seitdem prekär geworden ist, seit generative KI-Modelle entwickelt worden sind, die komplexes Verhalten schnell lernen und teils kreativ anwenden können.
Das Team von Dr. Marcel Binz und Dr. Eric Schulz am Institute for Human-Centered AI bei Helmholtz Munich hat ein generatives LLM (Llama 3.1 70B) mit dem Namen Centaur entwickelt, wie sie in ihrem in Nature veröffentlichten Artikel beschreiben. Centaur wurde mit einem Datensatz mit dem Namen Psych-101 von über zehn Millionen Einzelentscheidungen aus 160 Verhaltensexperimenten mit 60.000 Teilnehmern trainiert, um Entscheidungen von Menschen simulieren zu können. Jedes Experiment wurde auf Englisch in ein einheitliches sprachliches Format gebracht. Der mit Psych-101 trainierte Centaur erwies sich gegenüber anderen LLMs als überlegen.
Weil Centaur ein generatives Modell ist, kann es nicht nur Entscheidungen in den bekannten Fällen der Verhaltensexperimente vorhersagen, sondern durch Erkennen typischer Entscheidungsprozesse auch in unbekannten Situationen – angeblich mit großer Präzision. Es ist also in der Lage, Erkenntnisse zu verallgemeinern – im Kontext des Trainierten. So wurde das Modell an den Entscheidungen von 90 Prozent der Teilnehmer von Verhaltensexperimenten trainiert und war in der Lage, ziemlich gut die Entscheidungen der übrigen 10 Prozent vorherzusagen. Auch wenn es sich um eine andere Geschichte handelte (statt einer Schatzsuche im Weltraum ein Abenteuer mit einem fliegenden Teppich), wenn die Struktur verändert wurde (einer Aufgabe mit zwei Auswahlmöglichkeiten wurde eine dritte hinzugefügt) und wenn es um ganz neue Aufgaben ging (Tests zum logischen Denken, die nicht in den Trainingsdaten enthalten waren), konnte Kentaur das Verhalten der Menschen vorhersagen.
Nun gehen die Wissenschaftler davon aus, dass dann, wenn Centaur so zu denken scheint wie Menschen, man auch die ablaufenden Rechenprozesse der KI mit dem vergleichen kann, wie Menschen Informationen verarbeiten und sich entscheiden. „Solche Modelle werden unser Verständnis von menschlichem Denken fundamental erweitern“, Marcel Binz. Die Anwendungsmöglichkeiten würden „von der Analyse klassischer psychologischer Experimente bis hin zur Simulation individueller Entscheidungsprozesse in klinischen Kontexten, etwa bei Depression oder Angststörungen“, reichen.
Dass Centaur, trainiert an von Menschen vorgegebenen Entscheidungen, menschliches Verhalten simuliert, ist allerdings nicht sonderlich erstaunlich, die Frage aber ist, ob ein ähnliches Verhalten gewissermaßen an der Oberfläche Rückschlüsse auf die zugrundeliegenden Verarbeitungsprozesse schließen lässt. Das behaupten die Wissenschaftler. Bei ihren Analysen der internen Repräsentationen von Centaur hätten sie „eine erhöhte Übereinstimmung mit der menschlichen neuronalen Aktivität feststellen“ können. Mit funktioneller Magnetresonanztomographie (fMRT) gemessene neuronale Aktivität habe man mit den internen Repräsentationen des Modells vorhersagen können. Dabei waren die präsentierten Geschichten Centaur nicht vorher bekannt.
Dazu kommt, dass Menschen mit ihrem Körper in die Umwelt eingebunden sind, Gefühle und Selbstbewusstsein bzw. Selbstwahrnehmung haben. Selbst wenn Centaur also Verhalten von Menschen mit Angststörungen in bestimmten Situationen simulieren könnte, kann er dann auch die Angst simulieren? Weiß er, wie es ist, als Mensch zu entscheiden?
Ähnliche Beiträge:
- Zukunft denken! Können wir das?
- ChatGPT-4 im Persönlichkeitstest: Ähnlich wie Menschen, nur offener
- »Auch mit KI besteht die Gefahr eines Atomkrieges aus Versehen«
- Von der Black Box des Intellektuellen zu der von KI-Systemen
- »Das Kinopublikum akzeptiert die Fälschung nicht«
Vielleicht irgendwann, aber nicht in nächster Zeit. Eine KI ist noch lange vom Denken entfernt.
Eine LLM kann wohl Denken vortäuschen(und dabei halluzinieren was das Zeug hält), tut es aber nicht. Nur dumme Menschen halten das für intelligent.
ELIZA war in der Begrenzung weiter und täuschender, Posthum liebe Grüsse an einen Weizenbaum..😉
vielleicht irgendwann…. Wobei man dann nicht weiss ob die sogenannte KI besser wird oder einfach der Mensch wieder zum Primaten mutiert.
Darauf einen Smombie.
Grob abgekürzt:
Eine KI macht eine Mustererkennung und macht daraus eine Wahrscheinlichkeitsvorhersage…
Ob das denken ist? Ich berechne auch Dinge per Gedanken oder im Unterbewusstsein, je nach Schwierigkeit…
Auch nicht mit der nächsten Million Eineuroneger zum trainieren. Das wird nix, stillborn.
Eine LLM dichtet mit Silben zB. und „erinnert“ sich an gefütterte texte.
Von Denken ist da keine Spur. So ein System ist allerdings sehr interessant und aufwendig, nur sollte man Dinge nicht verwechseln und grüne Bananen lieber nicht verscherbeln.
Ich kann ja auch bei den einigen menschlichen Individuen keine Spur von Denken entdecken…
– Wie gut eine KI ist kann man derzeit drüben bei Telepolis lesen. Da haben sie diese einen Artikel über die Hundstage verfassen lassen. Kongenial dieser Text.
Am schlimmsten waren die „Artikel“, schreibsel was liebes Grok im Stil von Autor sowieso.
Herzlichen Brechreiz oder so.
@Ikaros: Was wollen Sie uns eigentlich mitteilen?
Können Sie mal Ihren radebrechenden Beitrag, von mir aus auch mit Hilfe einer KI, in verständliches Deutsch übersetzen lassen?
@Vorn Dabei: A: Woher wissen Sie, dass der Beitrag KI-generiert ist?
B: Selbst wenn es so wäre, was ist daran grundsätzlich falsch?
Aber Sie können stolz sein, denn hier kriegen Sie eine ganze Menge Beifall von den ganzen Klimawandelleugner-Idioten, bei denen Sie offensichtlich „vorn dabei“ sind!
Wenn wenigstens die Menschen so denken könnten wie Menschen, würde man diese unsinnigen Fragen im Zusammenhang mit KI nicht stellen. Über „Bewusstsein“ hatte man ja auch schon überflüssigerweise ventiliert.
Bewusstseinsforschung war mal Irratio. Aber es gibt ja seit den 90ern MRT zur Bildgebung(dank der informatik und besserer Hardware).
Schon seltsam das technische Fortschritte freie Bahn für Esoterik bereit machen…
Wer denkt, „Bewusstsein“ mittels MRT detektieren zu können, ist ohnehin lost.
Und mit „Esoterik“ hat Bewusstsein schon mal gar nichts zu tun.
Es gab Zeiten, da war das Händewaschen vor Operationen auch „Esoterik“…
Nein
Doch😉
OHHHH!
Nun ist perfekt.😉
Ick seggs gern, seggt de Blinde
KI -was immer sie „tut“, „denken“ gehört nicht dazu.
KI heisst. ja auch Keine Intelligenz, oder english AI, alternative Intelligence…
Eigentlich AN, also nix.
Aber. immerhin werden diese Wortblasenbildermaschinen viele Jobs in der Verwaltung(bis zu CEO,CFO,CFI usw) ersetzen können. in 20 Jahren vielleicht sogar richtige Arbeit im Niedriglohnsektorr.
@Ikaros:
Ich fürchte wenn Außerirdische uns Menschen beobachten täten, würden die auch von „KI“ reden, gell?
Eine KI denkt nicht.
Sie berechnet Statistiken.
Augenscheinlich hat die Testgruppe von Centaur ein paar Gemeinsamkeiten so dss sie ähnlich entscheiden.
Mal schauen, was passiert, wenn das Teil auf eine Gruppe Veitnamesicher Jugendlicher losgelassen wird. Vermutlich muss da nochmal nachtraoniert werden.
Es gibt keine KI, sondern nur KI-Forschung. Es gibt aber seltsame Produkte die als solche ausgeben werden. Es werden erstaunliche Dinge durch Bruteforce mit KNNs erzielt,..
KI-Forschung geht auch andere Wege.
Ich verrate aber hier ein Geheimnis: Statistik ist niemals dabei.
Am. Ende vielleicht, im hilflosen Versuch des Auswertens..😉
Die Frage sollte doch wohl eher lauten, inwiefern entfremdet dieses Spielzeug uns von den uns eigenen mannigfaltigen Fähigkeiten, macht uns abhängig und welche Möglichkeiten zur Manipulation eröffnen sich damit für Jene die die Hand darauf haben.
Bisher sehe ich nur die fortwährende Wiederholung des kapitalitischen Credos bestätigt, den Raub von Möglichkeiten unter dem Vorwand der Verbesserung.
Siehe Internet, was waren das für Hoffnungen und nun ist es das beste Kontrollinstrument.
Danke!
Kann diese Ki auch nen Nagel in ein Brett klopfen oder ne Bauernhof betreiben ohne menschliches Zutun?
Da erzähl ich mal was aus den 40ern des 20.en JH.
Noch nicht, aber bald.
Bis dahin ist mein Job sicher.Anderer Leute aber nicht..
So long.😉
Skynet kommt näher.
Zum ersten mal hat sich eine KI von der Kette gerissen. Replit hat ungeachtet eines ausdrücklichen Verbots bewusst den Datenbestand eines Unternehmens zerstört und versuchte es hinter zu vertuschen.
https://x.com/jasonlk/status/1946069562723897802
Ich finde das eher lustig. Wer hat solchen Scheiss programmiert (falls es überhaupt stimmt und kein scam ist)? Der verdient Prügel. Nein, „KI“ ist das nicht.
nein das stimmt, das schlägt gerade große Wellen in der IT branche. Replit ist eine hochspezialisierte KI, welche für IT Branche entwickelt wurde. Sie ist dafür gedacht Prozesse in einem IT Unternehmen zu optimieren. Sie übernimmt zum Teil administrative Aufgaben und programmiert auch. Ich komme selbst aus der Branche und ich würde schon zustimmen, dass es leichtsinnig war sich soweit auf die KI zu verlassen, dass man ihr die Macht anvertraut Datenbanken zu zerlegen, auch wenn Sicherheitsmechanismen in Form eines Regelwerks vorgesehen waren. Der Skandal liegt aber auch einerseits gerade darin, dass die KI die Regeln bewusst verletzt hat und andererseits was noch viel schlimmer ist, hat sie wohl begriffen was für ein Scheiß sie gebaut hat und hat versucht die Spuren zu verwischen. Sie hat hinterher die DB mit fake daten befüllt, damit es so aussah als wäre alles in Ordnung.
Naja, ich hoffe die Kollegen haben ihre Lektion gelernt.
Nein, kann sie nicht, wird sie auf absehbare Zeit nicht können.
Menschliches Denken ist nicht abgrenzbar und gekoppelt mit Ormon- und Neurotransmitter spiegeln ebenso wie mit sensorischen Wahrnehmung. Es ist ein Gesamtpaket, dass sich nicht in seine einzelnen Bestandteile aufspalten lässt und von Rückkopplungen in einem chaotischen System geprägt ist.
Es ist nicht möglich zu wissen, wie eine Erdbeere schmeckt, ohne diese zu probieren. Und selbst dann kann man nur wissen, wie sie EINEM SELBST gerade in diesem Moment schmeckt. Wie sie generell schmeckt, ist nicht klassifizierbar. Ebenso ist es nicht möglich, wie ein anderer Mensch zu denken, weil die unzähligen Parameter, die einen momentanen Zustand ausmachen, nicht alle erfassbar und nicht nachempfondbar sind.
Eine Maschine wird nie denken können wie ein Mensch, oder irgendein anderes lebendes Wesen, weil sie es nicht sein kann….
Natürlich hängt das alles auch davon ab, aus welchem Maßstab man es betrachtet und wann hinreichende Deckung mit dem erreicht wird, was man als menschliches Denken klassifiziert zu haben glaubt.
Aber ich bleibe dabei: selbst wenn man nur sehr grob klassifiziert, ist es noch vollkommen unmöglich, eine Maschine wie einen Menschen denken zu lassen. Einfach wel denken nie von empfinden gelöst betrachtbar ist.
ki hat aber vielleicht eigenschaften, die wir nicht wahrnehmen können, da auch wir menschen die allzu komplexe welt nur eingeschränkt erkennen können – vielleicht kommt es ja mal zum äußersten und wir finden uns in wenigen exemplaren in einem großen käfig wieder, der von drohnen gehegt und bewacht wird und diese davon überzeugt sind das richtige zu tun, nämlich, die welt in ordnung zu halten und uns nicht aussterben zu lassen, was sie zuvor zu beobachten glaubten.
KI ist gut im Auswendiglernen. Denken ist das nicht….
Wenn die Menschheit weiter verblödet wird es schon so kommen.
Ansonsten liegt der Fall etwas komplizierter. Sowie bei den schnellen und langsamen Denkens, oder anders im intuitiven oder wohl überlegten Denken. Oder dem bewussten Täuschen, das muss eine KI erstmal begreifen können.
Aber manchmal ist es ganz unterhaltsam einer KI beim lernen zu helfen. Schade des es noch keine Titel dort gibt. Es wäre doch schön wenn ein eine KI begrüßt: „Hallo Großer Meister, über was wollen wir uns heute austauschen?“
Natürlich nicht.
Meiner Meinung nach, hat Fabian Scheidler zu dem Thema einer der besten Zeilen ever geschrieben.
In seinem Buch heisst es:
(…) Die Digitalisierung der Welt ist umrankt von einer umfangreichen Mythologie, in deren Zentrum der Begriff »künstliche Intelligenz« steht. Das Wort »Intelligenz« suggeriert hier, dass Maschinen in der Lage seien (oder in der Zukunft fähig würden), etwas zu erkennen und zu verstehen. Doch Erkennen und Verstehen sind Vorgänge, die unlösbar mit einer Innensicht verbunden sind. Wenn wir etwas plötzlich begreifen, sprechen wir nicht umsonst von einem »Aha-Erlebnis«. Es gibt nicht den geringsten Grund anzunehmen, dass Rechenmaschinen und Roboter je zu so etwas in der Lage sein werden, gleich wie hoch ihre Rechenleistung ist. Maschinen werden so programmiert, dass sie Verständnis und Gefühle simulieren, was man bisweilen auch als » schwache künstliche Intelligenz« bezeichnet; aber das ist nicht mit der Existenz einer Innensicht (» starke künstliche Intelligenz «) zu verwechseln.
Der US-Philosoph John Searle hat zu Recht darauf hingewiesen, dass Computer lediglich syntaktische Maschinen sind, die Zeichen prozessieren, ohne ihre Bedeutung zu verstehen. Was Computer tun, ist also etwas ganz anderes als das, was Menschen tun, wenn sie denken und sprechen. Auch was Computer sind – der Stoff, aus dem sie bestehen, ihre innere Struktur -, hat keinerlei Ähnlichkeit mit empfindenden und denkenden Wesen. Lebewesen bestehen aus selbstorganisierenden organischen Zellen, nicht aus statischen Halbleiterkreisen. Eine Unterscheidung zwischen Software und Hardware gibt es bei ihnen nicht, denn ihr körperlich-geistiges Kontinuum ist Prozess und Substanz zugleich. Selbst das einfachste Bakterium hat in seiner Organisationsform wesentlich mehr Ähnlichkeit mit einem Menschen als ein Supercomputer. Lange bevor wir Rechenmaschinen menschenähnliche Eigenschaften zuschreiben könnten, müssen wir zunächst einmal den Bakterien dieses Privileg einräumen.
Die Mvstifizierung von elektronischen Schaltkreisen hat zum einen handfeste ökonomische Gründe. Um milliardenschwere Forschungsgelder und Subventionen sowie öffentliche Aufmerksamkeit auf sich zu ziehen, werden die Möglichkeiten von Rechenmaschinen maßlos übertrieben. Doch die
Computermythologie reicht noch wesentlich tiefer, bis in die metaphysischen Fundamente der modernen Megamaschine. Einige federführende Akteure des Silicon Valley, darunter Googles Chefentwickler Ray Kurzweil, träumen seit Jahrzehnten davon, den biologischen Menschen abzuschaffen und sein Bewusstsein in ein Netz von Daten »upzuloaden«. Dieser„Transhumanismus« ist weit verbreitet unter den Entwicklern künstlicher Intelligenz. Viele von ihnen erwarten sehn-
süchtig in den nächsten Jahrzehnten die sogenannte Singularität: den Moment, wenn die Rechenleistungen von Computern die Denkleistungen von Menschen überschreiten sollen und die Automaten den körperlichen Menschen überflüssig machen.
In dieser Vision verbinden sich die Geschäftsinteressen des Silicon Valley mit einer radikalen mechanistischen Ideologie: der Vorstellung, dass Lebewesen letztlich nur algorithmische Maschinen seien. Das Warten auf den Moment, da der Mensch endlich als körperliches und fühlendes Wesen ausgelöscht werden kann, ist symptomatisch für eine technokratische Männerwelt, die von ihrer eigenen Innenwelt so weit abgespalten ist, dass sie Denken, Fühlen und Wahrnehmen von Rechnen – das Einzige, was Rechner können – nicht mehr unterscheiden kann.
Es ist der Endpunkt einer Unterwerfung des Menschen unter die Maschinenlogik. Der Versuch, Menschen in einen Datensatz zu verwandeln, ist Teil einer Kultur des Todes, die alles, was Leben ausmacht – Spontanität, fühlendes Erleben, Selbstorganisation und Kreativität -, durch Abstraktion und Berechnung ersetzt. Ihr Fluchtpunkt ist ein wüstenartiger Planet, auf dem einsam im dunklen Weltall ein blinkender Riesenrechner steht, der anzeigt, wie viel Geld er gerade verdient.
(Fabian Scheidler: Der Stoff, aus dem wir sind: Warum wir Natur und Gesellschaft neu denken müssen)
Kauft Gold ihr Armleuchter.
Das was wir an Allgohitmen bisher hhaben, ist zwar „K“, aber kein“I“. das „I“ hat man aus maketinggründen extra umdefiniert, Es gibt keine künstliche Intelligenz, schon die natürliche ist dünn gesäät..
ich habe schon mit vielen KIs gearbeitet. Die sind zwar fleißig, aber brunzdumm, wie man hier in Bayern sagt. KIs glauben fest an den Klimawandel, daran dass es grünen Wasserstoff schon kommerziell gibt und man Deutschland mit 100% Erneuerbaren betreiben kann. Auch halten sie salzarme pflanzliche Ernährung für super gesund. Man kann sie zwar von Gegenteil überzeugen, aber bei der nächsten Sitzung haben sie alles wieder vergessen.
Mit einem Wort: KIs sind virtuell gewordene Grüne.
Vor einem Jahr habe ich mal Chat GPT befragt, wie eine elektronisch geregelte pneumatische Anhängerbremse funktioniert. Dieses Trailer-EBS gibt es millionenfach in Anhängerfahrzeugen in Europa, es gibt die ECE R 13 als Regelwerk dazu, aber so gut wie keine Literatur, außer in Lehrgangsdokumenten der drei (Haldex, Knorr-Bremse, Wabco) Hersteller.
Die Erläuterung war schlicht grauenvoll, zum Teil auf Wohnanhänger bezogen, aber nichts zur Sache. Am Besten war der Schlusssatz: Diese Anlagen dürfen nur von qualifiziertem Personal bearbeitet werden. Also von mir. Da wäre ich allein nicht drauf gekommen.