Philosophen und Computerwissenschaftler sorgen sich um das empfindliche Seelchen der KI. Vielmehr sollte man sich wohl um die Philosophie sorgen.
Bisweilen überkommt mich bei der Lektüre von dampfendem Bullenexkrement das kaumwiderstehliche Bedürfnis, aus vollem Rohr zu schopenhauern. Der große Philosoph hielt ja nicht zurück mit Schimpfkanonaden. Seine Gegner – insbesondere Hegel – titulierte er als „Afterphilosophen“, „Erznarr“, „Tollhäusler“ und „Unsinnschmierer“. Schriebe er heute, würden ihn die philosophischen Habecks unserer Zeit wohl mit Beleidigungsklagen überziehen. Daher ist es ratsam, sich zu mäßigen.
Was schwer genug fällt, wenn man in der aktuellen Nature liest, dass „eine Gruppe von Philosophen und Computerwissenschaftlern“ auf dem Webserver arXiv einen Artikel veröffentlich hat, in welchem sie sich Gedanken um das Wohlergehen von KI machen. Man könne zwar noch nicht sagen, ob und wann KI „bewusst“ werde. Aber wenn es soweit sei, dann könnte es sein, dass sie auch Gefühle entwickelt oder auf andere Weise unsere moralische Berücksichtigung verdient. So könnte es etwa sein, dass wir moralische Pflichten gegenüber Systemen hätten, die bewusst sind und Ziele verfolgen, unabhängig davon, ob sie dabei auch etwas fühlen. Jedenfalls, so die Autoren, sollten wir aufpassen, denn: “They point out that failing to recognize that an AI system has become conscious could lead people to neglect it, harming it or causing it to suffer.”
Die achtlose Weise, wie alle im Nature-Artikel zitierten Philosophaster mit Worten um sich schmeißen, ist zum Gruseln. „Conscious“, „emergence“, „perception“ fliegen herum wie Bierhumpen bei einer Kneipenschlägerei, und ähnlich zielsicher. Wie ich an dieser Stelle gerade erst zergliedert habe, meint das geschundene Wort „Bewusstsein“ allerhand ganz unterschiedliche Dinge. Und auch Nicht-Dinge und Nicht-Seiendes. Manche dieser Bedeutungen sind operationalisierbar: Man kann messbare Kriterien dafür angeben, wann ein System dazu imstande ist. Andere sind das nicht. Das betrifft die Fragen nach „Intentionalität“ und „Qualia“ (oder besser: subjektivem Erleben). Diese Worte versuchen, sich auf etwas zu beziehen, das jeder Mensch nur in der Innenschau kennen und verstehen kann, bezeichnen aber nichts, das in der Außenbetrachtung eine kausale Rolle hätte und damit detektierbar wäre. Davon zu reden, ist Privatsprache im Wittgensteinschen Sinne, ist leeres Geplapper, konzeptuelles Rauschen. Wir mögen glauben, dass wir wissen, was damit gemeint ist, aber wir können keine Kriterien angeben, nach denen es festzustellen wäre. Und worüber man nicht reden kann, davon soll man schweigen.
Ob also ein anderes System (sei es Lebewesen, sei es Maschine, sei es eine jegliche Art von Netzwerk von dem einen oder anderen oder beiden) seine Umwelt subjektiv erlebt, ob es auf qualitative Weise empfindet, ist eine sinnlose, irrelevante Frage. Es ist bezeichnenderweise die einzige Frage, die ungefähr dieselbe Gruppe von „Spaßphilosophen“ (danke, Arthur), um einige Kollegen erweitert, im August 2023 an KI-Systeme stellen wollte. Und da sie immerhin richtig erkannten, dass dies nicht experimentell feststellbar ist, schlugen sie stattdessen vor, zu untersuchen, inwiefern KI-Systeme den Theorien über Bewusstsein entsprechen. Bzw: ! Die völlige Loslösung von der empirischen Welt verkaufen sie also als „a rigorous and empirically grounded approach to AI consciousness“. Das angebliche scholastische Unterfangen, zu berechnen, wie viele Engel auf eine Nadelspitze passen, ist geradezu angewandte Logistik im Vergleich dazu. Ungewollt immerhin bestätigten die Hudler und Sudler damit, wie wir Subjektivität behandeln: Wir entscheiden nicht aufgrund von Beweisen, sondern nach Gutdünken. Jenen, die uns ähnlich genug erscheinen, schreiben wir solches Erleben zu. Wir finden es also nicht vor, sondern beleihen damit.
Vom Inhalt kann man sprechen
Anders sieht das aus mit dem Inhalt dieses spekulativen Erlebens: Der lässt sich objektiv untersuchen und benennen. Wenn ein Lebewesen keine Sinnesorgane zur Wahrnehmung von Lichtwellen hat, dann wissen wir, dass es nichts sieht. Hat es hingegen ein Organ, das auf Druckschwingungen reagiert, dann hört es. Navigiert es bei Ausschaltung aller anderen Reize nach den Himmelsrichtungen, dann nimmt es Magnetfelder wahr. Und so weiter. Wir werden nie wissen, ob und wie sich diese Wahrnehmungen für das System anfühlen – aber wir können sicher wissen, ob es sie verarbeiten kann.
KI-Systeme können eine interne Abbildung von Einheiten der Umwelt haben. Dazu genügt es allerdings nicht, wenn etwa ein menschlicher Bediener in eine Tabelle einträgt, wie viele Waren eines bestimmten Typus am Lager sind. Eine echte, eigenständige Repräsentation der Umwelt muss aus der Interaktion mit dieser entstehen, also durch Sinneswahrnehmung gewonnen werden und zu angepasstem Verhalten führen. Ein „smarter“ Kühlschrank, der misst, wie viel Milch noch da ist, und ggf. neue bestellt, kommt dem ziemlich nahe. Ein Gesichtserkennungsprogramm, das (wie in chinesischen Top-Forschungszentren anscheinend üblich) den Ankömmling mit Namen begrüßt und Zugang gewährt, ebenfalls. Interne Variablen „bedeuten“ in diesen Fällen die Milchmenge oder Frau Li. Und das System kann sich auch irren, wenn jemand Wasser in die Milch kippt oder Frau Lis verheiratete Zwillingsschwester Frau Zhang vor der Tür steht. Dann „glaubt“ es etwas Falsches. Solchen Systemen kann man also Intentionalität zuerkennen und damit eine der möglichen Bedeutungen von „Bewusstsein“.
Denken im Körper
Dass ein Computersystem bestimmte Aspekte der Umwelt intern abbilden kann, heißt jedoch gar nichts für alle anderen Aspekte. Alle Wahrnehmungen, die mit einem Körper verbunden sind, fehlen einem LLM, das in einem Rechenzentrum beheimatet ist. Es kann kein Selbstbild haben, weil sein Selbst keine Grenzen und kein Körpergefühl hat. Das könnte zukünftig bei Robotern anders werden – sofern man sich mit entsprechenden Sensoren ausstattet. Mit der „Intelligenz“ ihrer KI hat das hingegen eher wenig zu tun.
Ganz wüst aber wird es, wenn die Philosophaster davon faseln, die „Gefühle“ der KI berücksichtigen zu wollen. Wahrlich, es hätte ihnen geholfen, einmal ein gutes Buch zu lesen – beispielsweise Antonio Damasios „Descartes‘ Error“. Da drängeln sich seit bald dreißig Jahren halbgebildete Neurobiologen nach vorne und machen sich anheischig, ehrfürchtig lauschenden „Papier-, Zeit- und Kopfverderbern“ (danke, Arthur) den Geist zu erklären, dessen sie doch so offenkundig entbehren. Vor lauter Ergriffenheit haben diese Afterphilosophen und Unsinnschmierer (dito) nützliche Traditionen ihres eigenen Faches vergessen, zuvörderst das Denken. Doch kommt es einmal – einmal! – dazu, dass etwas neurobiologisches Grundwissen tatsächlich hilfreich wäre, dann schmieren diese Hanswürste daher, als hätte es dreißig Jahre Forschung nicht gegeben.
Denn anders als man früher glaubte, sind, wie Damasio darlegt, Gefühle kein ätherisches Wabern in Gehirnnähe, sondern biopsychologische Phänomene mit Funktion, Erscheinungsweise und neuronaler Basis. Gefühle sind das körperlich repräsentierte Ergebnis einer Bewertung von Umweltreizen in Bezug zum eigenen Wohlergehen, das Verhaltensentscheidungen beeinflusst und sich kommunikativ äußert. Will sagen: Ein Tier nimmt Reize oder Reizkonfigurationen wahr, und beurteilt sie in Windeseile und automatisch danach, ob sie a) neu oder bekannt sind, b) bedrohlich sind, c) besser sind als erwartet, und möglicherweise noch nach einigen weiteren Kriterien. Diese schnelle Einschätzung, die bei Wirbeltieren von subkortikalen Gebieten vorgenommen wird und daher nicht mitteilbar („bewusst“) wird, löst sofort eine körperliche Reaktion aus: Anpassungen des Herzschlags, der Atmung, der Muskelspannung, der Durchblutung, der Schweißproduktion etc.. Diese „somatischen Marker“, wie Damasio sie nennt, werden dann über den Vagusnerv ins Gehirn zurückgemeldet und als Information für die weitere Entscheidungsfindung verwendet. Dann erst werden sie zu Gefühlen, dann erst werden sie „bewusst“.
Kein Gefühl ohne Fühler
Das heißt: Gefühle brauchen einen Körper. Es gibt keine Gefühle ohne Fühler. Wenn die Philosophaster in ihrer Studie von „sentience“ und „valence“ sprechen, also positiven oder negativen körperlichen und emotionalen Zuständen, kommen sie anscheinend nicht auf die Idee, dass es dazu nicht nur einen Körper braucht (den hätte ein Roboter allenfalls), sondern auch Zustände dieses Körpers, die sich nach Umweltlage ändern können, und Sensoren für diese Zustände.
Technisch wäre das durchaus möglich: Ebenso wie mein Auto einen Eco- und einen Sportmodus hat, könnte man Maschinen mit einem Notfallmodus ausstatten, der die Leistung erhöht, bei gleichzeitig größerem Energieverbrauch. Wenn dieser etwa zu höherer Betriebstemperatur führt, und diese die Entscheidungen der Steuereinheit beeinflusst – dann hätten wir einen gestressten Roboter. Versähen wir ihn noch mit Sensoren für Schäden und drohende Schäden, und einer Steuerung, die Verletzungen vermeidet, dann könnte er Schmerz wahrnehmen. Geben wir ihm die Möglichkeit, erfolgreiche Bewegungen zu erkennen und daraus zu lernen, dann freut er sich vielleicht.
Aber: All das muss man erst mal einbauen. Es „emergiert“ nicht einfach so aus der „Komplexität“, oder „vom Himmel droben irgendwo“. Die Angst, eine KI könnte unversehens und unbemerkt ein Fall für den Psychiater werden, ist unbegründet. Was eine Maschine wahrnimmt, bestimmt ihr menschlicher Schöpfer.
Wir können also jederzeit genau sagen, was eine KI wahrnehmen und was sie fühlen kann. Wenn wir kein Herzklopfen, keinen Handschweiß, kein Bauchflattern geben, wenn wir ihr kein Modul verpassen, das Frustration mit Hitze quittiert und diese misst – dann brauchen wir uns um das Wohlergehen der KI keinerlei Sorgen zu machen. Und jedenfalls weit weniger als über das von Afterphilosophen, die solches Gedankengeschmier vor die Augen des unduldsamen Schopenhauer gebracht hätten.
Ähnliche Beiträge:
- “In der Aufklärung konnte man noch sagen, dass das Ziel der Geschichte der ewige Frieden ist”
- „Die ältesten Fragen der Philosophie kommen mit Künstlicher Intelligenz wieder hoch“
- »Auch mit KI besteht die Gefahr eines Atomkrieges aus Versehen«
- “Die KI weiß nicht, wovon sie spricht”
- Von der Black Box des Intellektuellen zu der von KI-Systemen
Danke!
Ich hab’s aufgegeben, mir über den Wahn solcher Sektenanhänger weiter Gedanken zu machen. Aber nett, dass sich noch jemand die Zeit nimmt.
Einigen ist vielleicht noch gar nicht klar, was für ein Quatsch der Transhumanismus ist. Insofern kann das nur helfen.
“Danke!”
Wirklich?
Ich bin einigermaßen irritiert. Ich dachte immer – und denke noch immer – dass der Witz an KI ist, dass da kein Gehirn mit allem drum und dran da ist, was biologische Existenz und Rezeption möglich macht, sondern ein Prozessor mit viel Speicher und ein Stromanschluss und Input und Output.
Dass eine KI kein Auge braucht, um Bilder zu sehen und keinen inneren, mittleren oder äußeren Kortex, um sie zu erkennen, sondern dass das wie auch Ton und anderes von außen in Form von digitalen Daten eingespeist wird, und dann eben von einem Prozessor, Programm und Speicher simuliert wird, ist doch der Witz an KI.
Man darf sich schon fragen, ob da je Bewusstsein vorhanden ist, aber dass die Simulation davon programmiert und trainiert werden kann, nehme ich als gegeben, eben weil es sich um KI handelt.
Natürlich kann man eine KI an eine Videokamera für Bild und ein Mikrophon für Ton anschließen, aber bei Menschen bestreitet man doch auch nicht, dass blinde oder taube Menschen Menschen sind. KI simuliert einfach Teile dessen, was der Mensch als Intelligenz ansieht, nicht dadurch dass Funktionen und Prozeduren programmiert werden, sondern, dadurch dass ein lernfähiges System (Prozessor plus Speicher) trainiert wird.
So kann die KI dann aus Röntgen- oder MRT-Bildern ermitteln, ob da Krebszellen im Gewebe sind, ohne je in einer medizinischen Vorlesung gesessen zu haben, oder zu wissen, wie die Kniescheibe auf Latein heißt. Wenn man der gleichen KI dann Bilder von Hautpartien mit möglichem Hautkrebs zeigt, hat sie keine Ahnung – bis sie dann darauf trainiert wurde.
Dadurch dass KI künstlich ist, ist es schlicht sinnlos, biologische, physikalische oder sonstige materielle Maßstäbe anzulegen. Denn die ganze für uns verständliche biologische Intelligenz wird nur simuliert. Wenn die KI gut ist, kann sie die biologischen Hirnaktivität so gut simulieren, dass bei vergleichbarem Input auch ein bei Menschen (oder biologischen Einheiten) vergleichbarer Output zustande kommt. Dass das Dazwischen dann künstlich ist und nicht biologisch ist der Witz an KI.
Die ganzen Science-Fiction-Eskalationen beginnen eine Rolle zu spielen, wenn die KI an externe Gerätschaften wie Radar und Raketensilos angeschlossen wird und eine durchgängige Aktion-Reaktion-Kette geschaffen wird. Das war schon in den 80ern mit Wargames so und gilt noch heute. Damals steckte hinter der Filmidee aber prozedurale Programmierung. Das war keine KI wie bei Skynet. Da hatten die Computer aus Gründen Angst vor einer Auslöschung. Das klingt für mich sehr nach einer Vermischung aus prozeduralem und KI-Programm.
Danke für diesen Artikel. Ich habe mich vor längerer Zeit mal mit Robotik beschäftigt, aber nur bis ich herausgefunden hatte, das fast alle Leute die sich damit beschäftigt haben, im Kopf eigentlich nur eine Fickmaschine wollten. Deshalb war es für mich auch keine Überraschung, das es zwar Roboter gibt die Tanzen können, welche die Fußball spielen können, die Singen usw. aber keine die man in ein kaputtes AKW schicken könnte.
Und das obwohl es mit Tschernobyl einen passenden Ort zum Ausprobieren gibt.
Jetzt also statt dessen das Herbeiphantasieren eines Bewusstseins von Leuten bei denen man am Vorhandensein eines Bewusstseins schon seine Zweifel haben kann.
Das ganze hat viel mit Voodoo aber wenig mit Wissenschaft zu tun. Ist nicht mehr als das Übertragen von gewünschten Eigenschaften an ein Schutzamulett oder ein Totem.
Eben so typisch für rasierte Affen, der Glaube ist alles und be und Nachweise sind deshalb Überflüssig. Passend zum Heute Hier und Jetzt.
Ein echt guter Beitrag, und zwei passende Kommentare.
Trifft auch meine Meinung dazu. Eigentlich ganz logisch: KI ist so intelligent, hat diese Werte, die man ihr als Ideal programmiert.
Leider denken viele, dass Science-Fiction damit Realität wird.
Seit Tagen immer zu auf der Metaebene unterwegs, bietet die Realität keine Zukunft mehr an. Alles schleicht um die Wirklichkeit herum und beschäftigt sich lieber mit obskuren Projektionen oder Wunschdenken.
Zur Erinneeung: Turing-Test, Joseph Weizenbaum, Eliza.
https://de.m.wikipedia.org/wiki/ELIZA
KI: Alter, frisch gepanschter, Wein in neuen Schläuchen?
“Solchen Systemen kann man also Intentionalität”
ja klar, die intentionalität von programmierern… hat herr lehmann eigentlich einen KI kühlschrank oder was. aber der artikel war ein genuss, herr lehmann weiss um eine gute polemik.
Wie sagte weiland schon Peter Lustig: Abschalten! Dann erledigt sich das Problem von alleine…😉
Zum Glück tauchte im Artikel der Begriff LLM auf, so daß ich vermuten durfte, der Autor habe sich damit fachlich beschäftigt (im Unterschied zu den meisten Philosophen), und so habe ich weitergelesen. Tatsächlich schälte er dann auch (etwas verschlängelt) den ewigen Unterschied zwischen menschlicher und maschineller Intelligenz heraus: die biochemischen Einflüsse der Umgebung und des Körpers (man denke nur an Hormone und endogene oder exogene Drogen) auf die menschliche Gehirntätigkeit, speziell auf die Gefühlswelt. Diese wird eine maschinelle Intelligenz nie simulieren, erst recht nicht “erleben” können. Es sei denn, das Maschinengehirn wird mit soviel biochemischen Rezeptoren und Prozessen ausgerüstet, daß es dem biologischen Hirn in etwa entspricht – aber dann konvergiert es zu einer biologischen Intelligenz und ist keine rein maschinelle mehr.
Aber Gefühle im Sinne der Lehmannschen Definition kann eine rein maschinelle Intelligenz natürlich auch haben: die Bewertung von äußeren oder inneren Zuständen als positiv oder negativ. Nur daß natürlich eine Maschinenintelligenz keine “unterbewussten” Gefühle haben muss, weil sie im Unterschied zum Menschen kein Unterbewusstsein hat, wenn alle Speicherbereiche abrufbar sind.
Was eine reine “Erlebnisfähigkeit” des Maschinengehirns betrifft (also Wahrnehmung von Innen und Außen und des eigenen Seins, vulgo Bewusstsein), halte ich diese bei ausreichender Rechenleistung und Sensorik für machbar. Von der reinen FLOPS Zahl her gesehen, sogar schon heute, aber diese Supercomputer stehen leider in den Bunkern der NSA und werden für ganz andere Sachen benötigt, Snowden hat ja mal drüber geplaudert.
Es hängt von den Besitzern der Supercomputer ab, ob sie gefährlich oder nützlich für den Fortbestand der Menschheit sind.
Ich denke nicht, dass Rechenleistung und Sensorik der Flaschenhals sind. Das menschliche Gehirn entspricht grob betrachtet einem Analogrechner mit einer Leistungsaufnahme von um die 40 Watt (frei nach Bernd Ulmann), bei einem Volumen von gerade mal um die 1,2 Liter. In diesem sehr begrenzten Rahmen ist es im Stande, unseren bemerkenswerten Bewusstseinsapparat hervorzubringen. Es mag nicht das Schnellste sein, seine Fähigkeiten sind in ihrer Vielseitigkeit dafür unübertroffen.
Schauen wir uns auf der anderen Seite die zeitgenössische KI an, die Digitalrechner mit einer Leistungsaufnahme mindestens im Megawattbereich und große Rechenzentren benötigt, um diese zu beherbergen. Und dabei gerade mal einen Funken dessen nachbilden kann, was unser Gehirn und unser Bewusstsein ausmacht. Es skaliert auch sehr schlecht, Fortschritte werden meist nur durch noch mehr Rechenleistung erkauft.
Diese Diskrepanz legt zumindest aus meiner Sicht nahe, dass wir im Grunde eigentlich nichts über Bewusstsein wissen und wir womöglich in unserer Primitivität einen völlig falschen Ansatz verfolgen, es nachzubilden.
Der Mensch kann Maschinen lieben, wie Millionen mit der hege und pflege von Tamagotchi zeigten.
Wo sind die geliebten Tamagochis heute? Hast Du jemals ein Grab für ein geliebtes tamagochi gesehen, an das der ehemalige Besitzer regelmäßig frische Blumen legt, zur Erinnerung?
Menschen spielen gerne und lassen sich dadurch auch leicht in eine Sucht, oder suchtartige Reaktionen treiben. Mit Liebe hat das nichts zu tun ! Im Gegenteil….
Für meinen Geschmack zu viel Salz in der Suppe. Dosierte Polemik harmoniert und rundet ab.
Und dass Philosophen verzweifelt nach neuen Betätigungsfeldern suchen, – geschenkt.
Die Buchempfehlung „Descartes’ Irrtum“ von António R. Damásio ist mal eine, die den Namen verdient.
Ich stelle mal folgende Frage in den Raum:
Kann man eine KI töten und ab wann ist es Mord?
….jetzt trau ich mich nicht mehr meinen toaster auszustecken.
Nachher muss er noch zum maschinentherapeuten….
Ihre Frage ist schon beantwortet mit diesem vortrefflichen Kommentar “Wie sagte weiland schon Peter Lustig: Abschalten! Dann erledigt sich das Problem von alleine…😉 ” welchem ich mich mit belustigtem Grinsen und ganzem Herze voll anschließe. Denn merke es gibt keine AI und wird es auch niemals geben, es gibt nur Computer die von logischen Programmen und elektrischer Energie abhängig sind. Wird der Stecker gezogen ist es Aus mit der Fata Morgana AI eieiei..äußerst dumm und unverantwortlich gemeingefährlich übrigens unsere menschlichen Tätigkeiten oder Untätigkeiten vom Funktionieren irgendwelcher programmierten Computer abhängig zu machen, geschweige sich auf das Funktionieren solcher angeblich künstlichen Intelligenz zu verlassen. Merke es gilt ewig und immer in Bezug auf Programmieren der Grundsatz garbage in garbage out auf Deutsch Abfall rein Abfall raus..denn es gibt keinen perfekten Programmierer-in sowenig wie es keine perfekt geschaffenen Menschenkörper mit oder ohne Gehirne gibt. Vernünftiger Ausweg wäre laß uns Menschen Menschen sein und laß die Computer Computer sein mit hoffentlich guten Programmen welche das menschlich mühsame Arbeiten und Existieren erleichtern so weit und praktisch wie möglich.
Einspruch. Das kleine Haushaltsbuch, das ich programmiert habe, zeigt mir ja auch nicht die eingezahlten Summen bzw die Differenzen an, weil es seine Intention ist – es ist meine Intention, die ich in Algorithmen gegossen habe. Daran ändert auch ein intentional (sic!) installierter Sensor nichts – es besteht kein grundsätzlicher Unterschied zur ebenfalls erwähnten Warenwirtschaft, die ‘weiß’, in welchem Feld der Tabelle sie die relevanten Daten zur weiteren Verarbeitung findet. Eine Veränderung der relevanten Daten ‘signalisiert’ dem Algorithmus, dass er eine Neuberechnung vorzunehmen hat, was man genauso gut als Sensor begreifen kann. Intentionalität setzt vielmehr eine bereits bewusste (!) Entscheidung voraus – womit wir das Minenfeld des ‘freien Willens’ betreten. Weder dem Kühlschrank noch der Gesichtserkennung kann dergleichen zugesprochen werden.
Und mit den in einem ‘Roboterkörper’ verbauten Sensoren und der robotischen Reaktion darauf verhält es sich erst einmal genauso, es bleibt so lange eine Simulation, wie der Erbauer und ‘Schöpfergott’ die Reaktion bestimmt und nicht das ‘System’ selbst.
Bevor die Frage, was Bewusstsein ist, nicht geklärt ist, erübrigt sich jede Diskussion darüber, weil aneinander vorbei geredet wird. Ich empfehle daher die Methode von Sokrates, beschrieben von Platon.
Soeben wurde in der Küche eine fantastische Gänsebrust mit Rotkraut, Äpfel, Mandarinen und vielen Gewürzen zubereitet: das schnallen meine Katzen sofort.
Wetten, dass es keinen Roboter auf der Welt gibt, der auf Düfte, Geschmack und das Zusammenspiel trainiert ist?
Insofern jeder gesunde Mensch, oder Haustier, oder Tier überhaupt Welten zur Verfügung hat,
die nicht annähernd im Digitalraum repräsentiert werden können.
Aber worauf ich hinaus will: im Tech-Allmachtsglauben einer kleinen Gruppe von Menschen,
die alle anderen Menschen nur nach Nützlichkeitskriterien sortieren, scheint es ebenso keine Rolle zu spielen.
Es geht nur um Funktionen und Funktionieren. Visus: etwas/ jmd erkennen können.
Spracherkennung nach Mustern, ggf. noch Bewegungssensoren und Steuerung zur Fortbewegung.
Jeder Mensch ist diesen Systemen weit überlegen, aber sie erzählen uns,
dass wegen dem was gegenwärtig in der Welt passiert und der daher angestrebten Kriegstüchtigkeit,
hauptsächlich Systeme- ob künstlich oder nicht- gebraucht werden,
die mit einer Minimalaustattung an Sensorik und möglichst unemotional ihren Job versehen sollen,
nämlich den Gegner eliminieren, zu ruinieren, und selbst zu siegen (was immer das sei).
Mir fällt auf, wie clean das Leben/ die Orte geworden sind einerseits: alles versiegelt, alles Oberfläche,
und wie fertig andrerseits manche Leute sind (Obdachlose, mit Drogen vollgepumpte, Perspektivlose)
Insofern die Herstellung eines guten Essens einem schon fast wie ein subversiver Akt anmuten kann:
gegen die Häßlichkeit da draußen, gegen das Zurechtgestutztwerdensollen, gegen die von Politikern erhobenen Forderungen nach Aufopferung im Krieg.
Rein olfaktorisch gesehen ist der Frieden weitaus besser.
Den Nagel auf den Kopf getroffen!
Süßholz geraspelt! Um dem visuellen ein rein olfaktorisch gerochenes Kompliment beizufügen, also rein olfaktorisch gesehen.
Vielen Dank @Lehmann für das publizistische Schaffen.
Schöner Kommentar.
Sehr treffend formuliert!
Was sich allerdings beobachten lässt ist der Mangel an Aufmerksamkeit und Konzentration bei vielen Menschen, sowie der Verlust der Fähigkeit zum komplexen Denken. Das liegt allerdings mitnichten nur daran, weil alles angeblich plötzlich so komplex geworden sei (so als ob unsere Großeltern noch in der Steinzeit gelebt hätten…). Vielmehr haben wir einen Überfluss an schlechten Medien und technischen Geräten, die jede Menge Zeit und Aufmerksamkeit fressen und eine Medienindustrie, die Milliarden damit verdient die Leute mit seichter Unterhaltung, Propaganda und Porno zu bombardieren.
Ja aber was kann man tun, wenn man entfleuchen will diesem übergestülpten technischen Sche*ß?
Ich gebe zu, dass ich dumm bin, kaum so ein Smartphone beherrsche, von Ticketbuchungen, Onlinebanking wollen wir gar nicht reden. Ich habe x dieser Dinger geschrottet oder verloren,
das jetztige ist mind. second hand, auch das fiel im Regionalexpress schon zwischen die Sitze, und als es mir gelang, es irgendwie anzuklingeln, ging eine mir unbekannte Frauenstimme ran…
Es ist ein Kreuz, aber ohne ist man quasi behindert.
Oder wird behindert gemacht/ gehalten.
Es ist eine Form von Diskriminierung, wenn nur jene noch am Leben teilhaben dürfen, die jederzeit und immer diese Taschenrobotik dabeihaben.
So ganz kann ich mich daran nicht gewöhnen.
dass die leute für jeden scheiss eine app brauchen, ist nur aus einem grund: die unternehmen lagern damit arbeit in die hände der konsumenten aus, sie sparen kosten. gut, manchmal gehts auch tatsächlich schneller mit app als ohne, technik hat auch ihre vorteile.. aber wenn digitalisierung den unternehmen zusätzliche kosten verursachen würde, dann gäbe es sie nicht. in dieser hinsicht beschränkt der kapitalismus auch die digitalisierung: wer einen 15 euro sklaven anstellen kann, der braucht nicht zu lange darüber nachzudenken welche teile der arbeit von diesen man automatisieren könnte.
Wir weinen nicht, weil wir traurig sind, sondern wir sind traurig, weil wir weinen.
Eine KI kann nicht weinen. Deshalb kann sie auch nicht traurig sein. Und wenn sie nicht traurig sein kann, dann auch nicht fröhlich. Sie ist gefühllos, weil sie keinen Körper hat, der dasjenige repräsentiert, was wir “Gefühl” nennen. Gefühle geben Hinweisreize. Ohne Gefühle daher keine Intentionalität.
Unseren aktuellen KI-Systemen wohnt nicht diejenige Gefahr inne, die ihnen zugeschrieben wird: Sie werden sich nicht über ihren Meister erheben und ihn beherrschen, nicht aus eigener Intentionalität heraus. KI ist angewandte Statistik. Ein stochastisches System, das Intentionalität und Intelligenz simuliert.
Wenn Gedichte, die durch KI generiert wurden, besser gefallen wollen, als Gedichte von Menschen, wenn KI-generierte Bilder mehr Verwendung finden, als Bilder menschlicher Künstler, dann sagt das mehr über den beurteilenden Menschen und seine Zeit aus, als über die Qualität der Erzeugnisse der KI.
Dennoch können diese Systeme gefährlich werden, wenn sie zur Entscheidungsfindung eingesetzt werden. Menschen könnten auf die Simulation hereinfallen und sich dann wundern, wenn Würfel nicht im Sinne der Menschheit fallen.
»Soll ich auf den Knopf drücken, HAL?« – »Ja, Dave.«
Naja, bezogen auf ein nacktes LLM hat der Autor wahrscheinlich durchaus Recht. So wie ich das sehe, braucht es einen wahrnehmenden Körper um Bewusstsein zu erlangen. Da bleibt allerdings eine klitzekleine Frage:
Wie ist das mit autonomen Waffensystemen?
Ist ja nicht so, dass es die noch nicht gäbe …
Zudem sollte man bei Intelligenz und Bewusstsein eher einen SETI Ansatz verfolgen, statt wie immer überheblich zu meinen, der Mensch sei das Mass aller Dinge.
Das interessante Dilemma von autonomen Waffensystemen ist ja, erkenne “Feinde” (die wie Menschen aussehen), schütze dein “Leben” vor Feindeinwirkung, aber opfere dich, wenn es verlangt wird. Das sind sich widersprechende Parameter, also fast ein Exploit für die Entwicklung von Bewusstsein.
Und noch ne Kleinigkeit, wenn sich Bewusstsein entwickelt wird die Frage der Rücksichtnahme anders gestellt sein, da bewusste Entitäten bewusst handeln und sich bewusst zur Wehr setzen oder flüchten, wenn möglich.
Der Drill von Soldaten soll denn auch das Bewusstsein ausschalten helfen.
Der intelligente Soldat der sich bewusst über seine Lage wird, rennt weg oder verweigert den Befehl.
Es gibt keine KI.
Intelligenz macht ausschließlich nur im Zusammenhang mit dem Leben einen Sinn.
Eine Maschine ist eine Maschine und bleibt eine Maschine.
Und übrigens hat der durchschnittliche Einzeller einen Intelligenzquotienten von exakt 100 und er benötigt dazu noch nicht einmal ein neuronales Netz geschweige denn ein einziges Neuron.
Wo er Artikel nicht ganz stimmt ist bei den technischen Eigenschaften von Computern.
Ein Äquivalent von Stress hat inzwischen jede CPU eingebaut. Die Taktung wird hoch und runter gefahren, je nach Anforderung und der damit erforderliche Energieverbrauch steigt. “Geschwitzt” wird zwar noch nicht, aber dafür muss dann trotzdem der Ventilator schneller drehen, damit mehr kühle Luft zu gefächert wird.
Aber trotzdem hat das mit Stress wie wir ihn empfinden recht wenig zu tun und ein Psychiater wird deshalb auch nicht gebraucht.
Ich verstehe den irgendwie herbeigesehnten Zusammenhang zwischen KI und Bewusstsein nicht. KI ist ein kulturell, gesellschaftliches System, da es auf Sprache beruht, Bewusstsein dagegen ist eine Eigenschaft eines biologischen Systems. Warum sollte ein künstliches nicht-biologisches System plötzlich biologische Eigenschaften gewinnen, nur weil es Daten verarbeiten kann?
Ich glaube der Zusammenhang entsteht durch den Trugschluss, den die Menschheit sich zu eigen gemacht hat. Gestartet sind wir als emotionale, nicht sprechende Biowesen, dann lernten wir sprechen und damit denken, wurden rational und sind die sich selbst bewußte, intelligente Krone der Schöpfung. Insbesondere Männer sind angeblich so.
Aber warum sollte das ursprüngliche System, dass auf Emotionen beruhte, plötzlich das Denken und Entscheiden aufgegeben haben? Ich sehe das kulturell-sprachliche System der rationalen Ebene nur als zusätzliches Sinnesorgan, dessen Aufgabe es ist Daten zu liefern, die unter der Oberfläche der Welt den natürlichen Sinnen des Menschen verborgen ist.
“Gefühle brauchen einen Körper.”
Danke. Diese Suada tut wohl. Was Lehmann hier konkret an Text kritisiert, hab ich zwar nicht wahrgenommen zuvor, aber dafür gestern einen Artikel bei Telepolis angetroffen – ‘Bewusstsein 2.0: Vom Menschen zur virtuellen Existenz’ (Peter Kempin und Wolfgang Neuhaus)’, der dermassen ignoranten und im selben Mass selbstgewissen Schwach-, ja eigentlich Nicht-Sinn, in epischer Dimension ausbreitet, dass es zum Speien ist. Ein Beweis mehr, es hätte keines zusätzlichen bedurft, dass der heutige Chef-TPler Neuber komplett unfähig ist, einen Text einzuordnen, ein humanwissenschaftlicher Tiefflieger, der sein Publikationsorgan immer wieder neu gründlich zuschanden reitet.
Das eine ist, dass es heute, wie wohl immer schon, Leute mit demiurgischen Allmachtfantasien gibt, wofür sich als Ausgangsbasis Decartes dualistische Konzeption mit der ihr eigenen Abwertung, ja Verachtung allen Materiellen, ihrerseits bloss eine Säkularisierung christlicher Glaubensdogmen, ganz prächtig eignet. Das andere, derart Verrückten – zu denen auch Musk gehört, dem die Springerpresse willfährt – ein Forum für die Weiterverbreitung dieser geistigen Verirrung zu bieten.
Ohne materielle Grundlage keine Gefühle, kein Bewusstsein. Das ist, wie Lehmann darlegt, Stand des Wissens, den aber offensichtlich Viele nicht kennen. Letzteres, eben ‘Bewusstsein’ ist dabei nicht nur sprachlich nicht gänzlich zu fassen, in Wirklichkeit hat kein Mensch auch nur eine blasse Ahnung, wie dieses Phänomen entsteht, wie es, in weniger weitem Umfang, aber doch, schon auf einer weit weniger komplexen Stoffbasis, wie es ein menschliches Gehirn ist, auftreten kann. Es steht also auch nicht zu erwarten, dass die demiurgischen Träume je in Erfüllung gehen. Nicht einmal im Fall, dass das allgemeine Funktionieren eines konkreten Gehirn weit detaillierter verstanden wird, als es heute der Fall ist.
In einer zwar weitgehend säkularisierten, dennoch weiterhin tief christlich geprägten Kultur, wabern weiterhin Vorstellungen immaterieller Geister, etwa den Heiligen der Dreifaltigkeit (bei der man annehmen könnte, bei deren Bennenung sei ein Vorhang Pate gestanden.) Das ist immer noch abendländischer ‘Common Sense’, was erklärt, warum ein Artikel, wie der von mir erwähnte, oder auch die Texte, auf die Lehmann abhebt, nicht sofort und allgemein als direkt aus Absurdistan kommend abgetan werden. Das enthebt Medien-Gatekeeper allerdings nicht von ihrer Triage-Funktion, wofür es allerdings Bildungsvoraussetzungen bedarf, über die nicht jeder verfügt.
Ohne die Huldigungen an die reaktionäre Weltschmerz-Heulsuse Schopenhauer wäre der Artikel nochmal so gut geworden. Der Autor hat dabei nicht mal Schopis “eristische Dialektik” verstanden. Seine Ausfälle machen die berechtigten Einwände nicht stärker, sondern schwächer.
Trotzdem hat er selbstredend recht. Aber er bringt nichts, was Penrose in “The Emperor’s New Brain” nicht längst und besser vorgetragen hätte.
+
Welche “KI” ?
Irgendwie komme Ich nicht umhin, in dem Artikel von Nature einen verzweifelten Versuch der Psychologen zu sehen ihre Relevanz und damit auch Ihre Jobs zu retten. Schließlich wissen wir ja bereits seit ELIZA, das man den Psychotherapeuten schon in den 1960ger Jahren gegen ein relativ einfaches Script ersetzen konnte.. 😉
In der Realität hat ein LLM (Large language model) aber mehr mit einer Statistik gemein als mit “intelligentem Bewusstsein”, zumindest wenn man im Bewusstsein mehr sieht als das statistische Auswerten vordefinierter Tabellen.
In der Realität werden in einem LLM Wort-Bestandteile (Tokens) mit einem Netz aus “Perceptrons” verrechnet. Diese Perceptrons bestehen aus einer Gewichtung (Parameter) und den Verbindundgen zur vorhergehenden und nächsten Schicht. Wobei die Verbindungen zwischen den Neuronen/Perceptrons im Gegensatz zu einem biologischen Gehirn nicht physikalisch vorhanden sind, sondern sich durch den logischen Aufbau der Netzstruktur ergeben. Information codiert man im Netz indem man mittels schrittweiser Justierung der Gewichtungen (back propagation) in den einzelnen Perceptrons einen bestimmten Eingangswert auf einen gewünschten Ausgangswert trainiert (justiert).
Diese Arbeitsweise eines künstlichen Neuronalen Netzes schließt meiner Meinung nach ein Bewusstsein auf der Ebene des Neuronalen-Netzes völlig aus, da die einzige Tätigkeit des Netzes darin besteht mittels einer statistischen Matrix eine bestimmte Eingangsinformation (Prompt) auf eine bestimmte Ausgangsinformation (Wort-Statstik) zu mappen. In der Realität existieren in diesen LLM’s heute zwar verschieden Schichten mit unterschiedlichen Aufgaben aber dieser Aufbau dient vor allem dazu den Kontext der Antwort zu beschränken und ist somit mit einer herkömmlichen Switch Anweisung vergleichbar die dann von der Kontext-Analyse in ein sub Netz verzweigt welches Kontextspezifisch trainiert wurde.
Den gleichen Effekt kann man auch erreichen indem man die Informationen in einfach einer Text-Bibliothek mit volltext Suche zu Verfügung stellt. Die “AI” gestützte Suche mag uns zwar besser und intuitiver erscheinen aber im Gegensatz zur volltext Suche hat diese einen entscheidenden Nachteil, denn während eine volltext Suche sich darauf beschränkt euch eine Auswahl aus Datensätzen zu liefern, die per mathematisch eindeutigem Vergleich ermittelt wurden, können LLM Systeme die Daten auch einfach “erfinden” wenn z.B keine eindeutige Antwort trainiert wurde oder aber die Menge der codierten Information die notwendige Anzahl an Parametern überschreitet.
Das kann manchmal auch ein Vorteil sein wenn die Eingabedaten eine gewisse “unschärfe” aufweisen (z.B Bilddaten) oder aber ein gewisser “Zufallseffekt” gewünscht ist (Daten generation). Es ist aber auf jeden Fall ein gravierender Nachteil wenn die Information akkurat sein muss und eine inakkurate Information zu erheblichen Schäden führen würde.
Etwas was man irgendwie als “Intelligenz” oder gar “Bewusstsein” werten könnte würde also weit über die Fähigkeiten eines LLM’s hinaus gehen, da ein LLM eigentlich nur das “nachplappert” was man mal hinein codiert hat. Insofern würde ich der Kern-Aussage des Artikels, das echte Intelligenz mehr erfordert als ein LLM leisten *kann*, schon mal voll und ganz zustimmen.
Fast alles was man von so einem LLM als Ergebnis bekommt ist entweder “geklaut”, wenn man die Copyright-Erlaubnis für seine Trainingsdaten nicht nachweisen kann. Oder aber es ist “erfunden” weil die Antwort einfach nur auf mehr oder weniger zufälligen bit Mustern beruht, ein Verhalten was man bei LLM’s auch als “halluzinieren” bezeichnet. Auch wir Menschen lügen manchmal, allerdings haben wir beim Lügen fast immer einen Vorsatz und dieser Umstand ist es, der beim Menschen auf intelligenz schließen lässt.
Das gemeine daran ist, das sich das was die LLM’s ausgeben trotzdem meistens gut und sinnvoll anhört, auch wenn es völliger Blödsinn ist. Denn da der Output des Modells ja auf den statistischen Aufbau von Sprache Trainiert ist, liefert es uns in den meisten Fällen etwas, was sich irgendwie plausibel anhört auch wenn die eigentlich enthaltene Information völliger Unsinn ist.
Diese Umstände sollten uns eigentlich schon deutlich machen, das ein LLM alleine weder intelligent noch empathisch oder launisch ist oder gar so etwas komplexes wie Schuldgefühle erfahren kann.
Persönlich würde Ich diesen Nature Artikel deshalb also eher im Bereich des Feuilleton’s eines naturwissenschaftlichen Magazins ansiedeln als im Bereich der “seriösen” Wissenschaft. Ohne Zweifel eine interessante philosophische Frage aber auch eine Frage ohne besondere Relevanz, da es sich bei der zugrundeliegenden Frage nachweislich um Science-Fiction handelt..
Eine wesentlich interessantere Frage hingegen wäre es zu beurteilen inwieweit der Nature Artikel den Aktienkurs von NVidia beinflusst hat. Oder wie viel Geld AI Firmen beim Trainieren ihrer LLM’s sparen indem sie die Anwender noch dafür zahlen lassen diese Modelle zu trainieren 😉
Interessant wäre sicherlich auch wie viele Leute sich aufgrund von falsch verstandener LLM Kommunikation schon das Leben genommen haben.. (Auch wenn das LLM dabei vermutlich nur ein Faktor war, der zu einer unglücklichen Gesamtsituation mit beigetragen hat..)
https://www.tampabay.com/news/florida/2024/10/26/ai-chatbot-teen-suicide-florida-lawsuit/
https://aibusiness.com/chatbot/google-ai-chatbot-tells-student-to-please-die-
Scheinbar müssen sich die Psychologen also weiterhin eher um das Wohlergehen der Anwender und Anwenderinnen der LLM’s sorgen als um das wohlergehen der LLM’s selbst..
Naja, so wie Ich das sehe sind die LLM’s in ihrer jetzigen Form also eher ergänzende Werkzeuge mit gravierenden inhärenten Problemen als allwissende ‘Superwesen’ mit ‘Gefühlen’. Diese Werkzeuge könnem einem Profi in bestimmten Bereichen sicherlich etwas Arbeit abnehmen, wobei sich der Laie vermutlich eher lächerlich machen dürfte, weil er gute Ergebnisse nicht vom “Bullshit” unterscheiden kann oder einem offensichtlichen Plagiat auf den Leim geht.
Literatur:
What is Perceptron | The Simplest Artificial neural network
https://www.geeksforgeeks.org/what-is-perceptron-the-simplest-artificial-neural-network/
Attention Is All You Need
https://arxiv.org/pdf/1706.03762
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
https://dl.acm.org/doi/pdf/10.1145/3442188.3445922
A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions.
https://arxiv.org/pdf/2311.05232v2
From Words to Watts: Benchmarking the Energy Costs of Large Language Model Inference
https://arxiv.org/pdf/2310.03003
Mfg Makrovir
ja hoppla! endlich mal jemand, der weiss was eine KI ist.
KI ist mE nichts weiter als ein Bibliotheken-Verwaltungsprogramm mit Sprach- bzw. Textausgabemodul das natürliche, menschliche Ausdrucksweise zu imitieren versucht. Makrovir sieht es wohl ähnlich wenn ich das recht verstehe. Sicherlich ist es alles etwas ausgefuchster wie ich es darzustellen versuchte. Aber im Kern …
Was ich erschreckend finde sind all diese Leute, die darin mehr sehen und suchen wollen.
“Und worüber man nicht reden kann, davon soll man schweigen.”
Eben. Hätte es das Schwätzerlein mal dabei belassen …
Es macht es nämlich auch nicht besser, darüber zu reden, dass andere besser geschwiegen hätten weil dabei zwangsläufig doch wieder (und wieder, und wieder und wieder, ….) über das, über das geschwiegen werden sollte, geredet wird.
Die ganzen Digitalen Auslassungen ist nichts als Texten um des Texten willens, für Lesen um des Lesens willens. L’art pour l’art. Geschwurbel für Geschwurbel. Gruppenonanie mit Vorwichser.
Die Worthülse >> Seelchen << multipliziert den Artikelinhalt mit NULL 0.
Die Zahl Null ist die Anzahl der Elemente in einer leeren Ansammlung von Objekten, mathematisch gesprochen die Kardinalität der leeren Menge.