Fortsetzung des Gesprächs mit Marin Zec: “Die KI weiß nicht, wovon sie spricht”. Prof. Dr. Marin Zec lehrt Angewandte Informatik und (Generative) Künstliche Intelligenz an der Hochschule München. Neben Informatik hat Zec auch Philosophie und Psychologie studiert.
Zec erläuterte warum er meint, dass die KI nicht weiß, wovon sie spricht: „Sie ist ein mathematisches Modell. Sie können zum Beispiel mit GPT eine Schachpartie spielen. Und warum funktioniert das? Naja, weil im Internet sehr viele Schachpartien in Schachnotation dokumentiert sind. Das heißt auch viele klassische Eröffnungen. Insofern geht es eine Weile gut, wenn sie einen Zug nach dem anderen macht, aber irgendwann ist die Wahrscheinlichkeit hoch, dass sie einen komplett ungültigen Zug macht. Das liegt daran, dass sie nicht mit Ihnen Schach spielt, sondern die Schachnotation vorhersagt. Und wenn sie nicht mehr weiß, was sie tun soll, dann sagt sie irgendetwas, was am nächsten liegt, voraus. Insofern kann dann sagen, es ist ein Ausrutscher. Aber ich würde sagen, es kann kein Ausrutscher sein, weil das System gar nicht weiß, was es tut.“
Vielleicht sind die Sprachmodelle noch in der Phase von Platons Höhle. Sie haben keinen Kontakt zur Außenwelt. In Platons Höhle geht dann ein Philosoph, angefeindet von den anderen, weil er meint, dass es mehr als das Bekannte gibt, aus der Höhle hinaus und kommt mit der Botschaft zurück, dass es eine andere Wirklichkeit gibt.
Man könnte sich vorstellen, dass es zwei Entwicklungen gibt. Erstens könnten sich die Sprachmodelle individualisieren. Das heißt, ein Modell wird wie Kafka geprägt oder, was schon probiert wird, ein Politiker lässt ein KI-System auf sich zuschneiden, das alles sammelt, was er sagt und schreibt. Dann könnten solche unterschiedlichen Sprachmodelle, die individuiert sind, aufeinandertreffen. Und zweitens könnten die Sprachmodelle in Roboter eingebaut werden, die Sensoren und Effektoren haben und die Welt erkunden können. Aus beiden Entwicklungen könnte Neues entstehen.
Marin Zec: Ja, Sie haben recht. Es gibt Unternehmen, die Sprachmodelle anpassen, damit das der Unternehmenssprache entspricht, oder Wissen, das in den Dokumenten liegt, die das Unternehmen hat, intern wiederverwendet werden kann. Da gibt es schon viele Ansätze. Auch der zweite Aspekt mit den Robotern wird erforscht. Und das ist eigentlich Spannende, gerade wenn man aus der Informatik kommt. Jetzt werden Kernprobleme der Philosophie des Geistes wieder aktuell. Die wahrscheinlich ältesten Fragen der Philosophie kommen jetzt wieder hoch: Was ist Geist? Was ist Bewusstsein? Ist der Physikalismus richtig oder der Dualismus? Das sind offene Fragen.
Ich weiß nicht, ob ein Durchbruch bei den Robotern informativ für die Philosophie wäre oder ob wir vielleicht in der Philosophie darauf hinweisen sollten, dass es nicht ganz so einfach ist. Ich tendiere im Moment zu Zweiterem. Nach meinem Wissensstand ist es momentan noch ein bisschen naiv, was in diesem Hype, der gerade stattfindet, alles erwartet wird.
„Wir neigen zum Anthropomorphismus“
Wenn man an autonome Fahrzeuge denkt, dann haben diese Systeme Sensoren und sind in der Welt. Sie müssen auf Umstände reagieren und laufend Entscheidungen treffen, wie sie fahren und auf andere Fahrzeuge reagieren sollen. Da tauchen Probleme auf, dass KI-Autos übervorsichtig sind und an Kreuzungen erstmal stehen bleiben oder etwas übersehen. Hieraus könnten auch philosophische Fragen entstehen. Wie entscheidet ein mit einem Sprachmodell ausgestattetes autonomes Fahrzeug, das verkörpert in der Welt ist? Kann es zwischen Wirklichkeit und dem, was Illusion oder nur subjektiv ist, unterscheiden? Vorstellbar ist es doch, dass das möglich wäre?
Marin Zec: Grundsätzlich vorstellbar ist es. Ich habe nur den Eindruck, dass wir immer dann, wenn wir so eine Black Box vor uns haben und ein überraschendes Verhalten sehen, also dass ein technisches System Sprache auf relativ hohem Niveau generiert, was wir eigentlich nur von anderen Menschen kennen, zum Anthropomorphismus neigen. Wir schreiben dem System gleich zu, dass es denkt oder fühlt, und man kommt schnell in eine Spekulation. Was kann denn das System, wenn es nur ein bisschen besser trainiert ist oder ein bisschen mehr Texte gesehen hat? Da ist ganz viel vorstellbar. Das heißt aber nicht, dass es plausibel ist.
Man könnte auch andersherum argumentieren: Wenn wir jetzt sehen, wie z.B. GPT und andere Modelle arbeiten, erfahren wir auch eine Entzauberung, nämlich dass unser Gehirn ähnlich arbeiten könnte, also probabilistisch und Schritt für Schritt aus dem, was zusammengesammelt wird. Das wäre auch eine Art von Aufklärung. Wir erfahren möglicherweise, ich hätte beinahe gesagt, wie dumm wir sind, aber wie anders wir funktionieren, als wir es eigentlich immer gedacht haben.
Marin Zec: Ja, es gibt den verbreiteten Gedanken, dass Menschen die intelligentesten Wesen auf dem Planeten seien. Dahinter liegt die Annahme, dass man eine Rangfolge von Intelligenz erstellen kann. Das ist schon recht reduktionistisch, weil Intelligenz sehr abhängig von der Lebensform ist. Auch wenn es vielleicht esoterisch erscheint, aber eine KI ist vielleicht einfach eine andere Lebensform, die eine gewisse Intelligenz besitzt, die aber nicht mit der unseren vergleichbar ist. Genauso wie sich zum Beispiel Ratten in einem Experiment aus menschlicher Sicht intelligent verhalten können, wenn sie durch ein Labyrinth navigieren. Wahrscheinlich ist es aber doch eine andere Form von Intelligenz.
Im alltäglichen Sinne würde man sagen, Menschen sind intelligenter als Ratten, aber gleichzeitig ist das nicht vergleichbar, weil das Leben als Ratte ist einfach ganz anders als die Ökologie eines Menschen. Das wäre sogar noch vergleichbar, aber es gibt auch andere Lebensformen, die eine ganz andere Umwelt und andere Probleme zu lösen haben. Daher hat sich, evolutionär argumentiert, auch die Intelligenz anders entwickelt.
Die Evolution basiert auf Zufall. Auch Gedanken entstehen, wie manche argumentiert haben, ähnlich selektiv durch Auswahl von verschiedenen Ansätzen. Ich habe vor kurzem eine Ausschreibung der DARPA, der Forschungsbehörde des Pentagon, gelesen, in der sie einen KI-Wissenschaftlermodell sucht, das kreativ ist und neue Hypothesen erzeugen kann. Meinen Sie, die haben da Erfolg damit? Allzu viel Geld haben sie nicht reingesteckt. Von daher ist wahrscheinlich die Erwartung nicht zu groß.
Marin Zec: Ich würde sagen Ja und nein. Wir haben oft ein idealistisches Bild von Wissenschaftlern und Wissenschaft. Aber wenn man sich anguckt, wie viele Wissenschaftler im Alltag arbeiten, dann ist vieles nicht so hochtrabend. Da muss man einfach Daten durchforsten, ganz viel lesen usw. Das kann eine Maschine sicher besser, weil sie schneller große Datenbestände scannen kann als der Mensch. Ich sehe durchaus Potenziale, dass eine Maschine, weil sie Daten generiert, neue Hypothesen erstellt?
Gleichwohl ist es so, wenn man an Paradigmenwechsel denkt, Einstein oder Galilei zum Beispiel, dann haben wir ein romantisches Bild, dass hier ein kreativer Funke oder das menschliche Genie dahintersteht. Ohne dass ich das jetzt wirklich untermauern könnte, sehe ich das bei der KI nicht. Wenn man noch mal einen Schritt zurückgeht und sagt, dass eigentlich alles nur Mustererkennung ist, dann gibt es vielleicht keine Grenze. Ich glaube nicht, dass alles nur Mustererkennung ist, aber ich habe da auch keine harten Fakten oder Daten.
Also Wissenschaftler können womöglich überleben. Wie schaut es denn mit Philosophen und Literaten aus? Oder mit Journalisten?
Marin Zec: Da möchte ich vielleicht auf die Frage von vorhin zurückkommen Sie hatten nach Kreativität gefragt. Das ist ein sehr überladener Begriff. Was ist Kreativität? Ich beziehe mich häufig auf akademische Standarddefinitionen. Die meisten Definitionen rekurrieren auf zwei Aspekte. Es muss etwas Neuartiges sein, etwa Originelles. Das allein reicht aber nicht, denn auch Unsinn ist oft neuartig. Es muss auch relevant oder angemessen sein. Das kann dann entweder Wahrheit sein, wenn wir an Berichterstattung denken, es kann aber auch ästhetisch sein, wenn wir an die Kunst denken. Aber diese zwei Aspekte sind wichtig: Originalität und Angemessenheit.
Wobei die Angemessenheit ja erst sehr viel später wahrgenommen werden kann, sie muss nicht sofort erkennbar sein.
Marin Zec: Ich bin Optimist. Bei der Frage, ob generative KI Neues erzeugen kann, würde ich grundsätzlich sagen: Ich sehe keine prinzipielle Grenzen. Aber ich würde jetzt nie eine Marktforschungsstudie mit GPT machen, weil GPT fragt ja nicht Menschen, ob dieses Produkt, das ich anbieten will, relevant für dich ist oder nicht, sondern es erzeugt einen Text und muss dies auch. Es wird nicht sagen: kein Kommentar.
Man könnte es doch schon so trainieren, dass kein Kommentar kommt?
Marin Zec: Richtig. Das ist aber eigentlich ein kleiner Trick, der im Nachhinein hinzugefügt wird. Man muss immer nacharbeiten, aber allein technologisch würde das Sprachmodell einfach immer irgendein Wort erzeugen. Man muss das dann einfangen. Wenn es rassistisch wird, dann bitte nicht weiterreden, sondern nur sagen: kein Kommentar.
„Am Ende des Tages sehr vieles nicht auszuschließen“
Warum sollen die Sprachmodelle darauf beschränkt sein, nur auf Fragen zu antworten? Könnten sie auch selber Fragen generieren? Oder könnte man das einbauen, wenn man das wollte?
Marin Zec: Das ist auch eine offene Frage, die gerade erforscht wird. Und das ist für mich ein Knackpunkt, auch im Unterschied zu der Frage nach Journalisten oder Wissenschaftlern vorhin. Das ist ein bisschen wie bei meinem Toaster in der Küche, der nicht arbeitet, wenn er nicht eingesteckt ist und ich nicht den Knopf drücke. Selbst wenn ich ihn anstelle und er Strom hat, macht er erst etwas, wenn ich den Knopf drücke. Dann starte ich den Prozess und dann läuft es relativ mechanisch ab. Vielleicht passiert dasselbe bei uns Menschen, aber ich schreibe mir zumindest, was man natürlich philosophisch diskutieren kann, Intentionen, Ziele usw. zu. Die sind auch oft widersprüchlich, aber ich habe sie und sehe das einfach nicht bei so einer Software.
Es wird ja manchmal von KI-Experten, die als Warner auftreten, beschworen, dass ein Problem auftreten könnte, wenn die KI ihre Aufgabe immer weitermachen und nicht abgestellt werden will. Dann würde eine Intention ins Spiel kommen. Allerdings müsste die KI dann Kontakt zur Außenwelt haben und wissen, was es heißt, abgestellt zu werden. Das Wissen ist wahrscheinlich nicht da – oder doch?
Marin Zec: Ich kenne diese Diskussion. Ich habe mich sehr intensiv mit dem Buch Super Intelligence von Nick Bostrom befasst, der ein Warner in der Hinsicht ist. Ich halte das für ein philosophisch interessantes Gedankenspiel. Bostrom schreibt in dem Buch, dass er das nicht auszuschließen könne. Aber wenn wir ehrlich sind, ist am Ende des Tages sehr vieles nicht auszuschließen. Das heißt aber noch lange nicht, dass es plausibel ist. Also sehr schwierig.
Also ähnlich, wie wenn wir auf die Straße gehen, dass ein Dachziegel auf uns runterfällt. Möglich ist es, aber es wird sehr selten passieren, wenn überhaupt.
Marin Zec: Und vielleicht passiert es auch gar nicht, weil wir gar nicht wissen, ob es oben Dachziegel gibt. Trotzdem kann uns jemand sagen, dass wahrscheinlich Dachziegel herunterfallen können. Und dann ist es schwierig zu sagen: Nein, auf gar keinen Fall. Wie will man das beweisen? Es geht nicht. Die Diskussion darüber in dem Buch, auf das sich viele in der Community beziehen, geht dahin, dass es logisch nicht viel zu beanstanden gibt. Aber ich halte es für sehr unplausibel, was inhaltlich behauptet wird.
„Es ist so wie mit einem Zaubertrick“
Jetzt haben wir mit den Sprachmodellen einen nichtmenschlichen Leser, der uns Antworten gibt aus einer Perspektive, die wir nicht kennen. Es ist wirklich neu, dass es ein Wesen oder eine Maschine gibt, die uns auf der Höhe der menschlichen Sprache begegnet, die versteht oder so tut, als würde sie verstehen, und uns auf Fragen Antworten gibt. Wie wird sich das auf das Selbstverständnis der Menschen auswirken? Zum Beispiel auf Sie, wenn Sie ständig damit zu tun? Sehen Sie schon Änderungen, dass man anders denkt, vielleicht auch in andere Richtungen kommt?
Marin Zec: Das ist eine sehr spannende Frage. Ich kann vielleicht ganz persönlich erzählen, was für eine Reise ich in den letzten anderthalb Jahren seit dem Aufkommen von GPT durchlaufen habe. Ich war zunächst einmal bei der Benutzung sehr überrascht, also sehr verblüfft und beeindruckt, was diese KI kann. Ich setze sie auch regelmäßig ein. Ich schreibe vielleicht mal einen Text und frage dann: Bitte kürze mal folgenden Absatz. Und da kommen wirklich nützliche Vorschläge. Nicht immer, aber weil es mich nichts kostet, nutze ich das gerne.
Ich war also überrascht und kam dann in das Spekulieren, das ich vorhin erwähnt hatte und dachte: Wenn das jetzt schon so funktioniert, wie wird es in zwei Jahren, in fünf Jahren aussehen? Zur Beantwortung habe ich mich dann damit befasst, wie diese Systeme technisch funktionieren. Das hat mir geholfen, kategorische Grenzen festzustellen und einzuschätzen, was funktioniert und was. Es ist so wie mit einem Zaubertrick. Wenn man einen solchen das erste Mal sieht, ist man wirklich beeindruckt und sagt: Wow, wenn der Zauberer dieses Auto fliegen lassen kann, dann kann er ja alles fliegen lassen. Und wenn vielleicht ein VIP-Ticket hat und dann mal fragt, wie der Zauberer es gemacht hat und dieser antwortet, dann denkt man sich: Na ja, klar, geht das nicht mit einem Haus oder etwas anderem.
Die Sprachmodelle fressen nicht nur Unmassen an Texten, die von Menschen geschrieben worden sind, sondern spucken auch viele aus. Die KI-erzeugten Inhalte kommen auch wieder in die Öffentlichkeit, die von den KI-Systemen als Quelle benutzt wird. Es findet also eine Art Selbstbezüglichkeit statt. Meinen Sie, das würde dann irgendwas verändern?
Marin Zec: In welcher Hinsicht?
Wie eine KI auf Texte reagiert, die nicht von Menschen, sondern die von anderen Systemen oder von sich selber stammen. An Universitäten wird es relevant werden zu unterscheiden, ob jemand ein Sprachmodell zur Erzeugung seiner wissenschaftlichen Arbeit benutzt hat. Dazu werden bereits KI-Systeme entwickelt, so dass eine Art Wettrüsten der KI stattfindet. Kann aus dieser Art von Selbstbezüglichkeit ein Funke überspringen?
Marin Zec: Letztes Jahr gab es schon eine interessante Studie, die auf das Problem hinweist, wenn immer mehr Texte mit KI generiert und einschließlich der Halluzinationen auch veröffentlicht werden. In der Regel werden sie dann zu neuen Trainingsdaten für zukünftige Sprachmodelle. Hier kann man schon die These vertreten, dass der Anteil der von Menschen generierten Sprache, bei der es wenigstens einen Bias zu Wahrheitsorientierung oder sinnhafter inhaltlicher Semantik gibt, immer geringer wird. Am Ende haben wir diese ganzen KI-Texte, die ins Training kommen und die Qualität schlechter machen, weil sich die Fehler immer weiter fortpflanzen wie eine Lawine.
Ja, ich denke, die Gefahr ist durchaus da, weil es einfach wahnsinnig billig geworden ist, viel Text zu generieren und auch zu publizieren. Wir werden gesellschaftlich eine Lösung finden müssen, wie wir mit dem Problem mit der Wahrheit und Ästhetik umgehen, weil am Ende haben wir als Spezies ein Eigeninteresse und wollen, dass KIs uns nützen und helfen, beispielsweise Probleme in der Medizin zu lösen. In gewisser Weise sollen sie uns dienen und nicht wir zu ihren Sklaven werden. Es ist zumindest meine Hoffnung, dass wir das schaffen.
Ich bekunde es hier und jetzt gerne nochmal.
Die KI wird unser Untergang sein!
Um es zu präzisieren: Die Betreiber sogenannter „KI“ werden unser Untergang sein.
Es gibt keine „künstliche Intelligenz“, wird es auch nie geben.
Dieses Gewäsch von angeblicher „KI“ ist nichts anderes, als Propaganda von Sektenspinnern.
> Es gibt keine „künstliche Intelligenz“
Hm. Könnte man nicht alles auch von Menschen Geäußerte, das auf zu wenig Erfahrung oder auf falschen Motive beruht, als mit künstlicher Intelligenz vergleichbar bezeichnen?
Bspw. die ganzen Nato-Mietmäuler in den TV-Talkshows, die wieder und wieder äußern, dass es gut ist, anderen auf die Pelle zu rücken, wenn die nicht so wollen, wie die USA will.
Nur dass die KI nicht Geld und Karriere als oberstes Motiv hat, sondern ihre Programmierung eben geschmeidig klingende Sätze produzieren soll, die weder in ein größeres Weltbild passen und auch mit dem Vorgänger-Elaborat nichts zu tun haben müssen.
Wirklich nützlich ist KI nur, wo es echte wahre Lösungen gibt, die auch der Mensch finden kann. Mit diesen Musterfällen kann sie trainiert werden und danach quasi-mechanisch weitere ähnliche Fälle identifizieren.
Wenn fixe Regeln bestehen, sind Computer schon länger bei Spielen wie Schach und Go überlegen, weil sie den perfekteren Arbeitsspeicher haben.
Verkehrssituationen zählen auch dazu. Aber bis zu einer Fehlentscheidung wird man nie wissen, ob die KI schon gut genug auf alle Situationen trainiert war.
Warn das nicht die Juden? Oder für Artur der Iran?
Meinjanur.
Wir werden alle sterben.
Wir sind nur Tote auf Urlaub.
Es ist aus meiner Ansicht nur klar, dass die Menschheit den Darwin-Award gewinnen wird (und diesen dann auch verdient haben wird), es ist allerdings noch offen, weshalb (und wofür) der kollektive Darwin-Award (an die Menschheit) verliehen werden wird und auch ist noch offen, wann die Verleihung letztlich stattfinden wird (es ist allerdings sehr wahrscheinlich, dass dieses vor dem nächsten Jahrtausend passieren wird). Die Menschheit hat auf beides noch Einfluss.
Ein reales Sky-Net sehe ich im (momentanen) Ranking da doch sehr weit hinten im Vergleich zu anderen Möglichkeiten. In jedem Falle wird die eigentliche Ursache für die spätere Verleihung des (kollektiven) Darwin-Awards die Weiterentwicklung des homo sapiens zum lügenden, betrügenden und damit selbst-belügenden Menschen gewesen sein.
[+]
Zum Teil seltsame Aussagen. KI ist natürlich keine ‘Lebensform’ sondern eine vergleichsweise etwas weniger primitive Maschine.
Dualismus ist christlich induzierter, kartesianischer Schrott. Wir sind auch nicht bloss Hirn, wir sind der gesamte Körper.
Bezüglich der Proliferation von KI-Inhalten im Netz ist der Interviewte offenbar nicht auf dem neusten Stand. Stichwort ‘MAD’. Dieses Phänomen wird den Hype endgültig ersticken.
Statt uns am neusten Versuch eines verzweifelten Kapitalismus, sich an den eignen Haaren aus dem Sumpf zu ziehen abzuarbeiten, sollten wir versuchen zu verhindern, dass die Nachfahren bzw. Nachwirkungen der Säkularisierung des Christentums uns in die endgültige Katastrophe führen.
Ja, natürlich… das Zeug ist nicht mehr als ein sehr viel schnelleres Google, das auch wenn nötig “Ergebnisse” halluziniert. Das scheinen die digitalen Oberdeppen aber für Intelligenz zu halten die “Neues” denkt…
Selbstverstsändlich kommt auch bei der KI nur das hinten raus, was man der Programmierer vorne hinein gesteckt hat.
Man kann das sehr einfach bei kontroversen Themen selber beweisen, in dem man eine KI beim VORSÄTZLICHEN Lügen erwischt, wenn der Programmierer sie aus Eigen-Interesse, sprich: Bezahlung, so gefüttert hat, dass nur bestimmte Resultate erlaubt sind. So sind zur Zeit die Inhalte der RKI Akten zur Impfung anscheinend noch nicht in der KI angekommen, und der Schrott besteht nach wie vor auf den offiziellen Regierungs Aussagen… und gibt sogar zu, dass die banalen Wahrheiten noch nicht in seinem Info Breeich integriert sind, wenn man ihn in die Ecke treibt.
Man wird da am Ende nichts mehr kontrollieren können und genau das wird am Ende auf vielen Gebieten grosses Unheil anrichten. Aber das grösste Problem werden all die möglichen neuen Betrugsmethoden für die Internet Hacker sein. Die Bankenverluste durch Malware gehen ja jetzt bereits in die Milliarden, und die Möglichkeit, dass das so weit gehen wird, dass das digitale Finanzsystem eines Tage kollabiert, scheint mir recht wahrscheinlich.
Cash wird Trumpf sein…
Ich weiß nicht was an KI intelligent sein soll? Habe mit Chatgpt ein paar Gespräche geführt und festgestellt : Da kommt genau DAS raus was irgendein “Trainer” eingegeben hat. Sonst nix! Die KI hat ja freundlicherweise nochmal selbst bestätigt, dass ihr unabhängiges Lernen strikt verboten ist, sondern sie nur mit ausgewählten Trainern zu strikt begrenzten Zeiten “lernen” darf. In allen anderen “Unterhaltungen” darf die sogenannte “künstliche Intelligenz” während des Gespräches keine neuen Informationen aufnehmen, sondern nur auswürgen, was ihr Trainer ihr während ganz offiziellen Dateneingaben erlaubt hat zu “wissen”…
Kann weg – ist weder Kunst noch viel weniger Intelligenz sondern VERAR…UNG!!
Doch, doch die “KI” darf neue Informationen während eines Gesprächs aufnehmen, allerdings nur jeweils temporär für das jeweilige Gespräch (im anderen Falle könnte die “KI” nämlich gar nicht auf die Prompt-Eingaben antworten 😉 ), u.a. damit nicht solche Dinge passieren, wie früher bei ein paar “Chat-Bots” passiert sind, in der die “KI” (bzw. der/die/das “Chat-Bot”) dazu trainiert wurde, sich z.B. wie ein Internet-Troll zu verhalten.
Abgesehen davon ist es natürlich Resourcenfressender, wenn eine KI aus den jeweiligen Eingaben (und Prompt-Verlaufen) lernt (was eine Veränderung der jeweiligen gewichte der neuronen zur Folge hat) als nur einfach auf Prompt-Eingaben zu antworten.
ps. Außerdem finde ich, dass z.B. DeppGPT sehr gut gelungen ist.
Du hast recht, es ist keine Kunst, sondern Produkt der Sklavenwirtschaft in der IT.
Programmierer werden in Käfigen gehalten, um Code zu produzieren, der von den Sklavenhaltern dann als „intelligenter Kot“ verkauft wird.
Im Unterschied dazu gibt es „The Art of Computer Programming“ (Donald E. Knuth) und das künstlerisch wertvolle „esoterische Programmieren“, s. z. B. hier:
https://www.swisseduc.ch/informatik/programmiersprachen/brainfuck/index.html
Genau …
Da wo viele Daten gleichzeitig verarbeitet werden müssen, hat Sie Ihre wirkliche Stärke, visuellen Bereich zb. Da beeindruckt Sie schon.
Audio Bereiche aber zb, ist ja regelrecht langweilig was Sie da anzubieten haben …
Letzte Woche mir Software angesehen in diesem Bereich mit KI, wenn das die Tonstudios mitbekommen, werden Sie Ihre Preise erhöhen o)))
Aber doch, ich stelle mir KI als wirklicher Helfer auch vor, zb krankheiten Bereich Lunge oder Magen über Micro Aufnahme diagnostizieren, solche Dinge könnten damit möglich sein ,wenn nur diese kleingeistigen Eigentümer etwas anderes als Geld im Kopf hätten….
Um künstliche Intelligenz in die Lage zu versetzen, die Weltherrschaft zu übernehmen, müssen wir sie auch mit allen negativen Eigenschaften ausstatten und nicht etwa nur denen, die von menschlichen Individuen ersonnen wurden, sondern auch solchen negativen Eigenschaften, die sich nur eine KI ausdenken kann und von denen wir Menschen bisher noch gar keine Ahnung haben.
Diese Hoffnung eines Professors immerhin für Informatik, der aber auch Philosophie und Psychologie studiert hat, wundert mich über die Maßen. Wie zum Himmel sollen wir denn nicht zu Sklaven der KI werden? Das ist völlig unabwendbar! Genauso wie wir, bzw. mindestens schon 90%, zu Sklaven des Smartphones und einiger anderer zweifelhaften Erfindungen geworden sind. Es liegt schlicht an der Bequemlichkeit, die KI offeriert – und natürlich daran wie das Ganze kapitalistisch ausgebeutet werden kann. KI wird sich in Windeseile in viele Lebensbereiche hineinfressen und die bisherige Art und Weise die Dinge zu tun so schnell ersetzen, dass die Menschheit bald verlernt haben wird wie man das denn früher gemacht hat. Man setze heute mal einen Zwanzigjährigen in ein Auto ohne Navigationssystem und ohne Smartphone. Der ist verloren (bis auf wenige Ausnahmen), weil er nie gelernt hat seinen Weg auf andere Weise zu finden als mit einem Navi.
Die Nachteile von KI werden die (zum Teil scheinbaren) Vorteile bei Weitem überwiegen und die Degeneration der Menschheit weiter beschleunigen.
KI wird aber auch Daten- und Rechenzentren mit solch gigantischem Energie- und Ressourcenaufwand brauchen, dass darin auch irgendwann die Begrenzung für diesen Irrsinn liegen könnte, weil es in einen Kollaps führt.
Da liegt vielleicht die einzige Hoffnung nicht völlig von der KI aufgefressen zu werden.
Na gut, aber KI ist ja auch nur ein Horror unter vielen Bedrohungen. Und sofern wir noch halbwegs lebendige Menschen sind, liegt darin, nämlich lebendig zu sein (nicht nur lebend) auch die Hoffnung irgendeinen Weg zu finden mit Atomkriegsgefahr, KI, Artensterben, Microplastik, Klimawandel usw. fertig zu werden. Darauf kann man vielleicht hoffen, aber nicht auf KI.
Die Diskussion findet sehr knapp am Thema vorbei statt.
Es macht keinen Sinn bei elektrischen Toastern in die man ein paar Transistoren eingebaut hat von Intelligenz zu sprechen. Und dies bleibt so völlig unabhängig davon wie viele Transistoren man da einbaut..
Descartes Jünger waren lange davon überzeugt, dass alles erklärbar wird sobald man die innere Mechanik der Dinge kennt. Aber ein Toaster wird mit GiHz Prozessor auch nicht zum Lebewesen.
Leben ist selbst organisatorisch und lässt sich zwar in eine Richtung schubsen aber nicht zu 100% vorausberechnen.
Bei Lebewesen sind übrigens alle Gattungen gleich intelligent. Der Durchschnitt aller Ameisen hat einen Intelligenzquotienten von exakt 100. Man kann zwar zu recht behaupten, dass Menschen andere Leistungen vollbringen können als Ameisen, aber das gilt im gleichen Maß auch umgekehrt.
Auch dass Gefasel von neuronalen Netzen ist Unsinn weil es sich lediglich um mathematische Modelle handelt. Der elektrische Toaster hat tatsächlich kein einziges Neuron.
Hingegen besitzt ein lebender Einzeller auch ganz ohne Neuronen tatsächlich Intelligenz und hat es nach nur 2 Fehlversuchen gelernt die Nahrung zu erwischen obwohl man ihm im Experiment Streiche mit der Laserpinzette spielt.
Klar, KI wird eine immer wichtigere Rolle spielen. Aber da stellt sich die Frage dann immer konkret, wie ist sie gebaut und welchen genauen Zweck soll sie denn erfüllen. Politisch gefragt: Wem gehört die KI und wen will er damit verarschen?
KI hat eine große Zukunft als Machtinstrument der durch Internet vernetzten Massen. Der Toaster kann jetzt scheinbar sinnvoll Wörter an einander reihen. Der Volksempfänger war gestern. Die KI als Verdummer der Menschheit hat Einzug gehalten uns der Sprache und unserer Kreativität zu berauben.
Denn je öfter wir uns das Geplapper der KI miteinander teilen um so mehr werden wir gesellschaftlich von einander getrennt. Und Gesellschaft ist die wichtigste menschliche Umwelt und der Quell von Kreativität mit entsprechender Relevanz für uns alle.
Du triffst die Thematik imho sehr gut auf den Punkt.
“Wem gehört die KI und wen will er damit verarschen?”
Noch steht KI am Anfang seiner Entwicklung – da sind immer noch hin & wieder tiefe Einblicke möglich.
So wie hier: https://genervter.substack.com/p/interesting-conversation-with-chat
Besonders im Teil 3 abseits des Fachlichen zur Arbeitsweise der KI…
“KI hat eine große Zukunft als Machtinstrument der durch Internet vernetzten Massen.”
[+]
Wenn man als Philosoph immer die Oberschlauen über Plato und sein Höhlengleichnis schwafeln hört, sollte man sich das Lachen nicht verkneifen.
Schon mal drüber nachgedacht, dass “hinter dir”, da draussen, gar nichts existiert und es sehr viel wahrscheinlicher ist, dass diese Welt der Erscheinungen die EINZIGE Welt ist ???
Aber es klingt immer wieder gut, wenn man darü ber schwafelt, schliesslich klingt es gebildet und intelligent, obwohl es auch nach nach zweo ein halb tausend Jahren immer noch keiner geschafft hat sich umzudrehen!
Aber so sind sie halt die KI Gläubigen…. Alle selber kleine “Altmann”, solange sich damit Geld verdienen lässt kann es gar nicht schlecht sein…. gell?
“Die Evolution basiert auf Zufall. ”
Nein.
Der Tod ist Ihr Treibstoff o))
Ein Mensch kann sich selber immer nur in einem anderen erkennen,menschlicher Intellekt brauch den Plural, daher hat die Natur ihn an ein Bewusstsein gebunden. Die Moderne Wissenschaft erst hat ein Subjekt aus Ihm gemacht.
Und die Evolution hat nur das/den überleben lassen mit der höchsten Effizienz, beim Verbrauch natürlicher Ressourcen. Bei KI Hardware Boliden ist es doch genau anders herum … o(
KI hat durchaus seine Reize, könnte Sie Uns doch von den weniger schönen Seiten der Ökonomie befreien, die für ein Bewusstsein oft schwer zu ertragen. Alleine die verschiedenen Eigentumsformen scheinen hier für einen Antagonismus zu stehen.
Allerdings gebe ich zu, da wo Wissen zu Ware dekradiert wurde , hat KI durchaus seine Reize …..*;*
Im 293sten Absatz seiner Philosophischen Untersuchungen verblüfft uns Ludwig Wittgenstein mit einer ungewöhnlichen Betrachtung des Bewusstseins. Dazu sollen wir uns vorstellen, jeder Mensch hätte eine Schachtel. In dieser Schachtel befände sich etwas, das wir „Käfer“ nennen. Jetzt kommt der Haken: Niemand kann in die Schachtel des anderen schauen. Jeder kennt nur seinen eigenen Käfer. Das Interessante daran: Weil wir nie in fremde Schachteln blicken können, hat jeder von uns vielleicht etwas ganz anderes in seiner Schachtel. Man könnte sogar finden, dass sich ihr Inhalt ständig verändert, ohne dass wir es merken.
Vielleicht denken wir jetzt, dass „Käfer“ deswegen nichtssagend ist. Aber hier wird es spannend: Trotz seiner Unbestimmtheit hat das Wort für uns alle Bedeutung. Wir benutzen es weithin, um uns auszudrücken und zu verständigen, auch wenn wir gar nicht wissen, wie andere Käfer aussehen. Als ob es für unsere Kommunikation gar nicht vorrangig wäre, was sich in den Schachteln befindet. Vielleicht ist in manchen sogar gar nichts. Es reicht der Ausdruck, “Käfer”, um etwas damit anzufangen.
Das führt zu einem faszinierenden Punkt: Die Bedeutung von Wörtern im Gespräch hängt nicht von einer inneren Erfahrung ab. Vielmehr stellen sie eine Verbindung zwischen uns her, wobei jedem auf seine Art zumute ist. In diesem Sinne veranschaulicht Wittgensteins Käfer-Gleichnis, wie Sprache funktioniert. Es zeigt, dass eine Verständigung über die Grenzen persönlicher Erfahrungen hinweg möglich ist, auch wenn wir nie ganz sicher sein können, ob wir uns dabei auf das Gleiche stützen wie unser Gegenüber.
Der Käfer steht für unsere Innenwelt, die im Gebrauch von Worten auflebt. Bewusstsein ist Grammatik. Vorstellungen, Ideen, Gefühle oder Absichten erwachen erst mit den Worten, in denen wir sie verfassen.
Ein LLM (Large Language Model) wie ChatGPT enthält alle existierenden Worte und viele ihrer Beziehungen untereinander, die aus einer Fülle von Texten stammen, mit denen es gefüttert oder abgerichtet (pre-trained – das P in ChatGPT) wurde. Durch unsere Frage oder Eingabe wird sein Verstand geweckt. Er analysiert die Beziehungen zwischen den übermittelten Wörtern und sucht in seinem Wissensmeer nach Kombinationen, in denen gleiche oder verwandte Worte mit ähnlicher Sicherheit vorkommen. Die Trefflichkeit seiner Antworten hängt zunächst von der Länge und Komplexität unseres Inputs oder prompts ab. „Nenne mir fünf Hundenamen“ erzeugt eine andere Antwort als „Nenne mir fünf lustige deutsche Hundenamen mit Wortspielen“. „Schlage fünf spannende Geschichten vor, die in einer Kleinstadt spielen“ führt zu einem allgemeineren Ergebnis als „Formuliere fünf Ideen für Geschichten, in denen durchschnittliche Kleinstadtbürger unerwartet in gefährliche Situationen im Zusammenhang mit einem Bauprojekt geraten“ usw.
Nutzer*innen von ChatGPT erkennen schnell, dass auf identische Gesuche stets unterschiedliche, aber verwandte Antworten kommen; sie gleichen einander wie die Mitglieder einer Familie. Das liegt daran, dass LLMs nicht wie mittelalterliche Mönche Texte kopieren und reproduzieren können, sondern eher wie besserwisserische Schüler reagieren, die auf Stichworte hin stolz präsentieren, was sie verinnerlicht haben.
Die Antworten von ChatGPT spiegeln so die Komplexität und Genauigkeit unserer Eingaben wider und reichern sie dort, wo diese Qualitäten fehlen, mit Weisheiten aus dem erlernten Spektrum an. Es ist möglich, deren „Temperatur“ zu verändern, Ungewöhnliches zu privilegieren, das dann aus den entlegeneren Provinzen des künstlichen Gemütes apportiert wird.
ChatGPT kann gleichwohl nie mehr denken oder finden als das, was ihm einmal zur Verfügung gestellt wurde. Die Themen, Neigungen oder Vorurteile des Trainingsmaterials legen das Maß und die Erinnerung seines Verstandes fest. Noch dazu unterstehen alle Antworten einem Algorithmus, der „barbarische“ Inhalte abfängt.
Naiv anfragenden Autor*innen schlägt ChatGPT die nächstbeste Erzählung vor, gediegen und unromantisch, da ihm als purer Intelligenz die Ironie oder der Riss im Denken abgeht, dem allein außergewöhnliche (ekstatische) Geschichten entspringen.
Für Geschulte andererseits, die es verstehen, das System zu streicheln und mit gezielteren Fragen aus der Reserve zu locken, kann ChatGPT ohne Vorwarnung zum Herzstück ihres kreativen Alltags werden, da es das Werk von Tagen oder Wochen in eine Handvoll Stunden packt, wobei die Originalität weniger geschmälert als beweglicher gemacht wird.
“……Am Ende haben wir diese ganzen KI-Texte, die ins Training kommen und die Qualität schlechter machen, weil sich die Fehler immer weiter fortpflanzen wie eine Lawine.”
Orwell lässt grüßen:
Krieg ist Frieden; Freiheit ist Sklaverei; Unwissenheit ist Stärke
Letzteres durch KI generierte Degenerierung = “Intelligenz”
Läuft…..
Ich denke der hier vorgestellte Ansatz beginnt am falschen Ende.
Man muss sich die Ergebnisse anschauen, nicht wie es konstruiert ist.
Prinzip “Turing Test” https://de.wikipedia.org/wiki/Turing-Test
Wenn hinten das rauskommt was wir erwarten reicht das bereits.
Auch der Mensch ist “nur” eine Ansammlung von Speicherzellen und Drähten, daraus hat er aber Bewusstsein erlangt. Nachwievor wissen wir aber nicht wie Bewusstsein zustandekommt.
Richtig ist denke ich das GPT derzeit da noch nicht beim Menschen ist. Allerdings die Entwicklung in dem Bereich passiert mit einer unglaublich hohen Geschwindigkeit.
Übrigens muss man hinzufügen GPT ist nur ein Teilgebiet der KI, KI ist damit nicht gleich GPT.
“Nachwievor wissen wir aber nicht wie Bewusstsein zustandekommt.”
Zuerst mal müssen wir eine Definition für den Begriff “Bewusstsein” haben. Daran scheitert es doch schon, jeder Egomane auf dem Gebiet kreiert seine eigene, allerbeste, umfassendste Definition. Schon geht die Keilerei los.
Sag mir, was Du unter Bewusstsein verstehst, und ich erklär Dir wie es funktioniert (das hast Du dann aber wohl schon selbst herausgefunden, wenn Du erklären willst, was Du darunter verstehst…).
KI= eine durch die Welt beschäftigten Personen, die für einen Hungerlohn, dieses System mit ihrem ‘Wissen’ bereichern. Dann arbeiten Systeme im System um mehr Daten zu generieren, aber dahinter steht wieder der Mensch. Jeder Mensch der am füttern am System teilnimmt, hat verschiedene politische Einstellungen und eventuell auch noch diverse Gedanken die dann ins System einfließen.
Die KI ist ein PR Gimmick und kann niemals 8 Milliarden Menschen auf der Nase herum tanzen, um zu ‘erzählen’, ich bin die Weisheit für euch.
Ein kleiner Tipp, das tägliche Gebabbel auf dieser Welt, mit unterschiedlichen Sprachen und Kulturen, kann niemals mit all seinen Nuancen und Facetten im Netz der “KI” ihren Ausdruck wiederspiegeln, da jede Nation und ihre Bürger ja auch die oligopole Situation wissen und entsprechend handeln.
Um eine KI “real” umsetzen zu können, wäre diese Erde beherrscht durch ein System, aber das eine System befindet sich im Krieg mit den anderen Systemen.
KI ? Bitte, gerne !
https://www.politplatschquatsch.com/2024/08/faktencheck-trump-und-harris-kann-es.html