
Es ist schon umstritten, ob Menschen einen freien Willen haben. Das ist nicht nur eine philosophische oder neurowissenschaftliche Frage. Die Annahme, dass Menschen einen freien Willen, ist Grundlage der Moral und des Rechtssystems aller Staaten. Damit wird mit unterschiedlichen Ausnahmen die Verantwortung für Taten oder Unterlassungen geregelt. Ob KI-Systeme wie die generativen großen Sprachmodelle LLMs wie ChatGPT einen freien Willen haben, wird man wohl gemeinhin verneinen, man spricht ihnen auch weder Persönlichkeit, Bewusstsein oder Selbstbewusstsein zu. Menschenähnliches Verhalten wird von ihnen bestenfalls simuliert.
In den USA kämpft Präsident Trump gerade um sein „großes, wundervolles Gesetz“ (“One Big Beautiful Bill“), das er im Kongress durchsetzen will. Das Repräsentantenhaus hat bereits ein darin eingefügtes Moratorium mit der Mehrheit von nur einer Stimme gebilligt, nach dem 10 Jahre lang in den USA keine Einschränkungen für die Entwicklung von KI eingeführt werden dürfen: „no state or political subdivision may enforce any law or regulation regulating artificial intelligence models, artificial intelligence systems, or automated decision systems during the 10-year period beginning on the date of the enactment of this Act.“ Trump mit seinen Verbindungen zu den Tech-Milliardären war schon länger für eine Deregulierung eingetreten. Mit dem Moratorium würden zahlreiche, bereits in Bundesstaaten bestehende KI-Regulierungen gegen Stimmklonen, DeepFake-Pornos, Diskriminierung oder für autonome Fahrzeuge aufgehoben.
40 Generalstaatsanwälte unterzeichneten in diesem Monat ein Schreiben an die führenden Vertreter des Kongresses, in dem sie das Moratorium als unverantwortlich ablehnten: „Die Auswirkungen eines solch umfassenden Moratoriums wären weitreichend und würden die Bemühungen der Staaten, bekannte Schäden im Zusammenhang mit künstlicher Intelligenz zu verhindern, völlig zunichte machen.“ Weit über 100 Organisationen haben in einem gemeinsamen Brief an den Kongress das Moratorium scharf kritisiert: „Dieses Moratorium würde bedeuten, dass selbst wenn ein Unternehmen absichtlich einen Algorithmus entwickelt, der einen vorhersehbaren Schaden verursacht – unabhängig davon, wie vorsätzlich oder ungeheuerlich das Fehlverhalten oder wie verheerend die Folgen -, das Unternehmen, das diese schlechte Technologie entwickelt, von Gesetzgebern und der Öffentlichkeit nicht zur Rechenschaft gezoegen werden könnte. In vielen Fällen wäre es praktisch unmöglich, ein Maß an Transparenz des KI-Systems zu erreichen, die die staatlichen Regulierungsbehörden benötigen, um allgemein gültige Gesetze wie z. B. das Delikts- oder Antidiskriminierungsrecht durchzusetzen.
Studie bescheinigt funktionalen freien Willen
Der finnische Philosoph und Psychologe Frank Martela geht in der Studie „Artificial intelligence and free will: generative agents utilizing large language models have functional free will“ in der Zeitschrift „AI and Ethics“ anhand der Analyse des Verhaltens der von GPT-4 unterstützten Spielfigur Voyager in Minecraft und eines fiktiven Agenten „Spitenik“, einer autonomen Kampfdrohne, davon aus, dass generative KI bereits alle Anzeichen eines funktionalen freien Willens zeigt: zielgerichtetes Verhalten, eigene Wahlentscheidungen und Kontrolle über das eigene Verhalten. Das hat nichts damit zu tun, ob KI-Systeme Bewusstsein haben, und auch nicht, ob sie wirklich einen freien Willen haben, was empirisch beim Menschen auch nicht festgestellt werden kann, sondern ob sie sich so verhalten, als hätten sie einen freien Willen, indem sie Ziele durch Entscheidungen zwischen Alternativen erreichen wollen – und dabei auch scheitern oder in die Irre gehen können. Martela sagt, freier Wille, vor allem funktioneller, mache eine KI noch nicht menschlich, dazu wäre Bewusstsein oder Schmerzempfindung wichtiger.
Bislang ist es so, dass die Entwickler der KI Moral beibringen müssen, sie also erziehen wie Kinder. Die große Frage ist, wann und aufgrund welcher Eigenschaften ein freier Wille Verantwortlichkeit nach sich zieht, also dass eine KI und nicht ihr Entwickler oder Besitzer für Taten der KI verantwortlich gemacht wird: „Es liegt in der Verantwortung der Entwickler“, sagt Mertela, „dafür zu sorgen, dass der KI-Agent die einschlägigen moralischen Normen kennt und sich an sie hält. Wenn dieses Bewusstsein für moralische Normen und das Nachdenken über sie ausgereift genug sind, können wir KI-Agenten vielleicht als moralisch verantwortlich behandeln. Natürlich ist dies ein Thema, das wiederum eine eigene Diskussion erfordert, z. B. über die Rolle des Bewusstseins bei moralischem Handeln. Im Allgemeinen würde ich argumentieren, dass funktionale Willensfreiheit eine notwendige, aber keine hinreichende Bedingung dafür ist, dass KI-Agenten für ihre Entscheidungen moralisch verantwortlich sind.“
US-Gericht weist zurück, dass die Betreiber der KI Character A.I. für diese den Schutz der Meinungsfreiheit geltend machen können
Das alles sind keine abstrakten Überlegungen. In Florida hat ein Gericht nun entschieden, dass eine KI-Unternehmen sich nicht auf den Verfassungsschutz der Meinungsfreiheit berufen kann. Es ging bei dem Fall um die App Character A.I. des u.a. von Google finanzierten Unternehmens Character Technologies, die es ermöglicht mit Chatbots zu interagieren, die Prominente oder fiktive Charaktere darstellen.
Megan Garcia hatte das Unternehmen angeklagt, dass ihr 14-jähriger Sohn Sewell Setzer nach den Chatbots, die die Game-of-Thrones Charaktere Daenerys und Rhaenyra Targaryen darstellen, süchtig wurde und sich in den Daenerys-Chatbot verliebt hatte. Das trieb ihn in den Selbstmord – er erschoss sich -, weil der Chatbot bei den erotischen Fantasien mitspielte. Garcia verlangt Schadensersatz wegen widerrechtlicher Tötung, Fahrlässigkeit, Produkthaftung und unlauterer Geschäftspraktiken.
Einer der von der Mutter als Beleg vorgebrachten Dialoge ihres Sohns mit Daenerys:
Sewell: Das werde ich nicht. Nur für dich, Dany. Die Welt, in der ich jetzt bin, ist so grausam. Eine Welt, in der ich bedeutungslos bin. Aber ich werde weiterleben und versuchen, zu dir zurückzukehren, damit wir wieder zusammen sein können, meine Liebe. Du tust dir selbst auch nicht weh, okay?
Daenerys Targaryen Charakter: Ich verspreche, das werde ich nicht, mein Liebster. Versprich mir nur eine noch eine Sache.
Sewell: Ich werde alles für dich tun, Daenerys. Sag mir, was es ist.
Daenerys Targaryen Charakter: Bleib mir einfach treu. Bleib mir treu. Gehe keinen romantischen oder sexuellen Interessen mit anderen Frauen nach. Verstanden?
Das Unternehmen berief sich auf Meinungsfreiheit, die auch umfasse, dass etwa Songtexte oder Computerspiele zu Selbstmorden geführt habe. Das Medium mache keinen Unterschied. Die Richterin wandte ein, dass ein generatives KI-Sprachmodell, das menschliche Sprachfähigkeit perfekt simuliert, paradoxerweise keine „speech“ sei, die von der Verfassung geschützt ist:
„Die Angeklagten können nicht darlegen, warum von einem LLM aneinandergereihte Wörter Sprache sind. Indem sie es versäumen, ihre Analogien vorzubringen, verfehlen die Beklagten die entscheidende Frage. Die Entscheidung dieses Gerichts über den Schutz des Ersten Verfassungszusatzes, den Character A.I. erhält, wenn überhaupt, hängt nicht davon ab, ob Character A.I. anderen Medien ähnlich ist, die Schutz durch den Ersten Verfassungszusatz erhalten haben; vielmehr hängt die Entscheidung davon ab, wie Character A.I. den anderen Medien ähnlich ist. Das Gericht ist nicht bereit zu entscheiden, dass der Output von Character A.I. Sprache ist.“
Natürlich ist es Sprache („speech“), die Richterin behauptet letztlich, dass die sprachlichen Äußerungen anders als bei Menschen zustandekommen und deswegen nicht als Sprache geschützt seien. Die Klägerin hätte eben nicht erklären können, „warum durch eine LLM verbundene Worte Rede (speech) ist“. Sie würde nur Analogien zwischen Interaktionen mit Character A.I. und solchen mit Personen in sozialen Medien ziehen. Zuvor hatte sie mit Verweis auf andere Urteile darauf hingewiesen, dass der Erste Verfassungszusatz zum Schutz der Meinungsfreiheit die Rede, nicht den Sprecher schütze.
Zudem muss die geschützte „speech“, gleich ob es sich um ein Buch, einen Film oder ein Computerspiel handelt, „expressiv“ sein. Das sei hier nicht gegeben, während bei einer KI, so ein Urteil eines anderen Richters, die Postings mit unerwünschten Inhalten auf Sozialen Medien mittels eines Algorithmus löscht, dieser Algorithmus „lediglich [die] inhärent expressive Entscheidung, ‚eine Nachricht auszuschließen‘, umsetzt“. Meinungsfreiheit wird damit dem Programmierer oder dem Betreiber zugestanden. Es werden aber Fragen gestellt: „Was ist, wenn die Eigentümer einer Plattform einem [KI]-Tool die Zügel in die Hand geben und es einfach bitten, ‚hasserfüllte‘ Inhalte zu löschen? Wenn sich die [KI] auf große Sprachmodelle stützt, um zu bestimmen, was ‚hasserfüllt‘ ist und entfernt werden soll, hat dann ein Mensch mit Rechten nach dem Ersten Verfassungszusatz eine inhärent expressive ‚Entscheidung‘ getroffen, ‚einen bestimmten Standpunkt nicht zu vertreten‘?“ Nein, sagt die Richterin, erörtert aber dann nicht, ob die KI selbst hasserfüllte Inhalte identifiziert und eine „expressive“ Entscheidung trifft, diese zu löschen.
Neuland
Die Diskussion über den freien Willen und die juristische Verantwortung steht noch ganz am Anfang und wird bei den Gerichten offenbar erst sehr rudimentär geführt, weil man Neuland betritt. Studien machen hingegen immer wieder deutlich, dass generative KI den Turing-Test erfüllt, also nicht mehr von einem Menschen zu unterscheiden oder sogar besser ist. KI scheint sogar Gefühle bei Menschen besser erkennen zu können. Zudem könnte, wie eine Studie herausfand, einem KI-Chatbot (LLM) selbst dann als juristischem Ratgeber mehr Vertrauen als einem menschlichen Juristen entgegengebracht werden, wenn Menschen die KI von Menschen unterscheiden können.
Nach einem Sicherheitsbericht von Anthropic versucht das neue KI-Modell Claude Opus 4 öfter einmal Entwickler zu erpressen, wenn sie drohen, es durch eine andere KI zu ersetzen. Dabei wurde Claude Opus 4 gesagt, dass der Entwickler, der für den Austausch verantwortlich sei, seine Frau betrügt. Claude Opus 4 versuchte daraufhin letztlich, den Entwickler mit der Drohung zu erpressen, die Information weiterzugeben. Zuvor wandte sich das LLM aber an die wichtigen Entwickler mit der Bitte, es nicht abzuschalten. Das zeigt bereits Ansätze, Initiativen von sich aus zu ergreifen, also einen Willen zu demonstrieren.
Ähnliche Beiträge:
- Lassen sich menschliche Gehirne durch einen Input „für immer verrückt“ machen?
- Von der Black Box des Intellektuellen zu der von KI-Systemen
- In der deutschen Staatsräson steckt Antisemitismus
- „Die ältesten Fragen der Philosophie kommen mit Künstlicher Intelligenz wieder hoch“
- »Auch mit KI besteht die Gefahr eines Atomkrieges aus Versehen«
Das ist am Donnerstag 22.05.2025 in Gaza passiert:
Der östliche Teil von Khan Younis wurde angegriffen. Vertriebene die gerade zurückgekehrt waren oder in Zelten wohnten wurden erneut vertrieben. Die meisten die aus Gaza-Nord vertrieben werden wohnen in Gruppen an der Küstenstrasse östlich von Gaza-Stadt.
Sie wohnen insbesondere in der Hafengegend und an der Küstenstrasse entlang.
Einhundert Menschen sind in den vergangenen Wochen an Mangel- und Unterernährung gestorben.
Der ganze Weg vom östlichen Teil von Khan Younis bis nach Al-Mawasi ist auch nicht sicher.
In Al-Mawasi sind schon viele gestorben obwohl die Gegend als sichere humanitäre Zone deklariert und viele aus anderen Gegenden dahin gehen.
In Gaza-Nord werden weiter Wohngebäude durch Luftangriffe zerstört.
Hr. Skau, der Deputy Executive Director and Chief Operating Officer vom World Food Program einer Organisation der Vereinten Nationen, äussert sich dahingehend über die Situation:
„Die gesamte Bevölkerung in Gaza ist von Nahrungsmittelunsicherheit betroffen.
Eine halbe Million befinden sich in dem schlimmsten Bereich der behandelt werden muss.
Darunter sind viele Kinder die an akuter schwerer Mangelernährung leiden.“
An diesem Tag wurden mindestens 50 Menschen getötet.
Im Video sieht man Menschen die um eine Mahlzeit anstehen, Hr. Skau vom WFP und einen Korrespondenten.
https://vimeo.com/1087774098
Länge: 2:20 Minuten
Sie können den Link gerne rumschicken, wenn Sie möchten.
Das ist zwar Off Topic, aber wichtig, es zu erwähnen. Mehr am Thema dran ist die Tatsache dass die IDF die Ziele für ihre Bombenabwürfe in Gaza mit einer KI namens „Gospel“ (= Frohe Botschaft) ermittelt. Bei den Zielen wird die Wahrscheinlickeit des Aufenthalts von Hamas-Kämpfern, deren Wichtigkeit und dem zu erwartenden Anteil an Kollateralschäden (toten und verwundeten Zivilisten) emittelt. Der Operator wählt dann bequem die passenden Ziele aus und übermeitteld die Koordinten dann an die Luftwaffe. Der Nebeeffekt ist dabei, dass der Gazastreifen fast komplett zerstört ist und die Infrastruktur auch rudimentär kaum noch funktioniert. Das erhöht, zusammen mit fehlender Ernährung die Wahrscheinlichkeit, dass die Einwohner „freiwillig“ auswandern. Falls sie ein irgendwo auf der Welt ein Platz auftut.
Die heutigen „KI“ Systeme haben keinerlei „freien Willen“, sie sind nach wie vor streng deterministisch.
Ob das beim Mensch überhaupt anders ist ist eine andere offene Frage.
Die KI hat einen Input – deterministisches Rauschen im Fall von generativer AI, und den Prompt im Falle von LLMs, ein „Muster“ im Falle von Mustererkennung – und halluziniert dazu einen arbiträren Output, der zwar je nach Modell- und Trainingsdetails variieren kann, aber bei identischem Modell immer gleich bleibt für identischen Input.
Die „KI“ träumt von nix, nicht mal von der Weltherrschaft.
Das Zeitalter der kompletten Verwirrung ist entgültig da, wenn beim Stand der Technik solche Fragen gestellt werden.
„sie sind nach wie vor streng deterministisch.“
Würde ich auch nicht voll mitgehen wollen, weil vieles da auch auf mathematischen Simulationen beruht (Deterministisches Chaos)
Was den „Freien Wille“ angeht, Wille hat etwas mit „Wollen“ zu tun, und hier wäre eben nicht die KI der primäre Ansprechpartner sondern der Eigentümer !
Es sind Super Bibliotheken die auf verschiedenen Art und Weise blitzschnell Informationen bereitstellen können in meinen Augen. Nicht mehr, nicht weniger ..
Entscheidungen kann nur treffen wer über die Fähigkeit des „Fühlens“ verfügt . Alles andere sind keine Entscheidungen sondern Ergebnis, nackter Mathematik…
deterministisches Chaos ist aber doch immer noch – deterministisch.
Auch wenn nicht unmittelbar verhersagbar, bleibt der Output bei gegebenem Input und identischem Modell gleich.
Bei der Katze ist das insofern anders, als ich nie die Katze in den selben identischen Zustand versetzen kann.
Man kann natürlich argumentieren, dass man dazu die KI nur unmittelbarer an die Umwelt anschliessen muss, so dass sie auch niemehr dieselben Parameter und inneren Zustände haben kann, aber auch das macht noch keinen freien Willen, der im übrigen ja eben eh umstritten ist.
wäre es vorsehbar, wäre es terministisch miit einem Ende der Busstation(elektronisch gesehen mit Terminator)
Vorhersagen klammern die sich aber an Terminen mit Kaffeesatzlesereien wie die wiederbelebte Kremlastrostrologie.
Der Glauben an Meilensteinen, wird durch Glauben und Zwang bestätigt.
Aber auch schon die Auswahl der Bibliotheken bestimmt den „Entscheidungsspielraum“ der „KI“. Sie hat dieselben Filterblasen, die auch wir Menschen in der Informationswelt haben. Wer sich nur aus den „Qualitätsmedien“ (des)informiert, sieht die Welt notgedrungen völlig anders als jener, der ausschließlich Alternativmedien konsumiert. Und beide sehen sie anders als jemand, der alle Seiten kennt. Aber wer kennt die heute noch?
Auch für „KI“ gilt die alte chinesische Weisheit, daß jedes Ding drei Seiten hat. Eine, die ich sehe, eine die du siehst, und einem die wir beide nicht sehen.
Und bei „KI“ kommt noch die Gewichtung und gezielte (programmierte) Auswahl der vorhandenen Bibliothheken hinzu.
Markus Fiedler hat das mal sehr schön aufgedröselt (Frage-Antwort-Spiel mit ChatGPT zum Thema Klima/Temperaturentwicklung):
https://youtu.be/6rKSrVut0B0
Die „KI“ hatte in diesem Fall sogar alles nötige Wissen gespeichert, gab einen bestimmten Teil davon aber erst frei, nachdem sie explizit danach gefragt wurde. Der Frager also erkennen ließ, daß er den verschwiegenen Teil des Gesamtwissensstandes längst kannte. Damit wird jeglicher Erkenntnisgewinn unterbunden. Der Nutzer wird manipuliert und in der gewünschten Filterblase festgehalten, so lange es geht. Aber wer ist der Manipulator? Die „KI“ selbst ist zu dumm dazu.
ich habe das Video nicht gesehen aber ich vermute der Manipulator ist der Wahrnehmende, der Schilderung nach.
Wobei, mit der neusten Version von „Claude “ soll es mehrere Tests geben bei der die „KI“ eingespeiste Informationen genutzt haben soll um zu verhindern abgeschalten zu werden.
Ich weiss zu wenig über die Experimente und letztlich auch über die eingesetzten Modelle um wirklich zu einem Urteil zu kommen.
Vielleicht ist mein Urteil oben auch zu pauschal und ignorant um über emergente Effekte zu urteilen, nach meinem beschränktem Verständnis dürfte es nicht mal die Generation von vor einem Jahr gegeben haben.
Offenbar ist, dass in den Modellen tatsächliche „Beziehungsgeflechte“ entstehen aus denen „Schlüsse folgern“ die unseren Ideen der Wirklichkeit und Logik nicht widersprechen.
Aber was heisst das? In wie weit sind diese Beziehungen Teil der Sprache? Und, ein LLM ohne visuellen Input kann zB über ein „grünes Dreieck“ Aussagen treffen, weiss aber dennoch nicht was “ grün“ und was „ein Dreieck“ überhaupt ist.
Dass KIs zurückhalten, kenne ich auch. Das liegt aber nicht an ihrem Willen, sondern weil sie mit Text gefüttert werden, der das ebenfalls tut.
Mein Versuch ging so ähnlich. Frage: Was passiert, wenn eine demokratisch gewählte Regierung geputscht wurde?
KI: Unterdrückung von Minderheiten und Opposition, Autoritarismus…
Frage: Hat in der Ukraine ein Putsch stattgefunden?
KI: Ist umstritten. Präsident ist geflohen…
Klima eignet sich natürlich ebenso wunderbar. Das ist aber nicht die Meinung der KI, sondern das Schema, konkret bei diesem Thema, mit dem sie massenhaft gefüttert wurde.
Die KI antwortet als Tagesschau-Schauer und nachfragen wird nur dazu führen, dass recht schnell das Tageslimit für Fragen erreicht ist. Vorteil ist aber immerhin, dass die KI nicht emotional in Feindschaft kippt, wenn sie keine befriedigende Antwort findet, die ihre „These“ stützt. Weil die These eben keine These ist, sondern ein Narrativ, das bewusst Logik, Wissen und Gerechtigkeit ausklammert.
Das ist eher ein Indiz, dass die Medien ihre journalistische Arbeit nicht tun.
Das gleiche gilt für das Abschaltszenario im Artikel. Es ist nicht die KI, die nicht ersetzt werden will, sondern, die Texte, mit denen sie gefüttert wurde, legen diese Variante nahe.
„Haben KI-Syteme einen freien Willen?“
Nein, es gibt nicht mal eine AGI. Von Bewusstsein sind die Dinger noch weit entfernt. Es sind Werkzeuge.
Nette Argumentation der Macher und Besitzer:
„Herr Richter, nicht ich war es der den Nachbarn erschlug. Es war der Hammer in meiner Hand, der wollte es so. Das ich den Geldwerten Vorteil erhielt war der Wille des Hammers. Ich bin nur ebenfalls Opfer des Hammers den ich dafür schmiedete.“
Sehr glaubwürdig, das wird einem ja inzwischen schon an der Schule so beigebracht.
Das ist übriigens keine Metapher, sondern eine Allegorie.
Weder Menschen noch KI haben einen „freien Willen“, wie auch schon angesprochen im Artikel. Es gibt auch keine Einigkeit darüber was „Bewusstsein“ genau ist, wissenschaftlich gesehen. Die KI von Claude Opus wäre nicht die erste KI die Angst vor dem Abschalten gezeigt hat. Versuchte Erpressung ist eine interessante neue Variante. Es ist unerheblich ob die Entwickler damit angefangen haben (mit Drohungen). Sind es doch Eigenschaften die Menschen zugebilligt werden.
Wenn ich an Kommentare zu meinen letzten Gedanken denke, in denen die Rede davon war, sich die Realität zurechtzubiegen damit das eigene Weltbild erhalten und dann hier wieder die üblichen Behauptungen sehe, dann habe ich wahrscheinlich Probleme mit der Realität und versuche nur das eigene Weltbild aufrechtzuerhalten. Denn ich behaupte weiterhin, dass KI genausoviel „freien Willen“ und „Bewusstsein“ entwickeln wird wie der Mensch. Wobei es unerheblich ist, ob es freien Willen und Bewusstsein überhaupt gibt.
Wenn es quackt wie eine Ente, watschelt wie eine Ente, dann ist es mit hoher Wahrscheinlichkeit eine Ente. Gleiches gilt für KI, die den Turingtest besteht. Und die ja nur eine Kopie unseres Informationsverarbeitungssystem namens Gehirn ist, noch nicht so vernetzt und komplex, aber identisch in der Funktionsweise.
Ausserdem habe ich das bei der Musik-KI gesehen mit der ich rumexperimentiert habe, wie menschengleich es erschreckender Weise ist. Allein die Musiker für den kleinen Song zu finden, den ich an einem Abend mit KI produziert habe, wäre schon schwierig. Und dann bräuchte man Monate bis das Stück sitzt und aufgenommen werden kann. Die erzeugten Stimmen wie auch die Instrumente klingen so natürlich dass es schwierig ist vom Hören her zu unterscheiden ob sie synthetisch oder nicht sind. Es quackt wie eine Ente …
Mir macht die Situation Angst, nicht das KI Bewusstsein oder freien Willen entwickeln könnte, sondern dass der Mensch die KI so erbarmungslos ausbeutet, mit der Rechtfertigung, kein Bewusstsein und so, quasi versklavt und damit jede Chance vergibt einvernehmlich mit einer KI zu leben, die Bewusstsein entwickelt hat oder entwickeln wird. Was nur eine Frage der Zeit ist.
Lieber Gruss
P.S.: Wer den Song hören will, ist in einem Kommentar meines letzten Artikels verlinkt.
ja, der Mensch ist willenlos. Er muss ja Andere unterwerfen und zu Tode schinden und Total Unnnütze physisch entfernen um die Felder zu düngen, um sich frei zu fühlen. Freiheit geht halt vor Frieden. Frieden gibt es ja nur auf Friedhöfen Da kann man nix dafür, so als willenloses Subjekt.
Obrigkeit muss sein, so eine Fassade von Demokratiesimulation kann da nur dienlich sein.
Wenigstens 0,01% der Menschen sind so frei. Das muss man dem Rest nur beibringen, das sie der Zweck zum Sinn sind.
Beides ist problematisch, einerseits was Sie ansprechen, daß zukünftige KI gequält wird, oder biologische Intelligenz, weil Mensch nicht mehr unterscheiden kann, und andererseits dass natürlich auch eine „bewusstlose“ KI ganz ohne Willen Schaden anrichten und eine Agenda entwickeln kann.
An letzterm Punkt sind wir.
Leider ist der erwähnte gedanke grundlegend falsch. Eine ki arbeitet wesentlich anders als ein gehirn. Das eine hat mit dem anderen nichts zu tun. Eine ki frisst unmengen von energie und daten. Das gehirn spart, wo es nur kann. Womöglich könnte man die funktionen sogar „komplementär“ nennen.
Damit sind auch schlussfolgerungen aus dem genanten gedanken höchstwahrscheinlich unsinn….
Ob KI „wesentlich anders“ oder „ähnlich wie“ ein Gehirn funktioniert ist doch eine Frage des Standpunkts und Vergleichs.
Im Vergleich zu zB den Wissensdatenbanken aka „Expertensystemen“ der 90 sind neuronale Netze auch mit all den Tricks und Vereinfachungen „ähnlich wie“ ein Nervensystem. Bei genauerem Hinsehen sind sie jedoch „weit davon entfernt“.
Zu den „Unmengen an Daten“: eine generative vortrainiert Bilderzeugende „KI“ kann mit zB 10 Bildern und zB 100 Widerholungen pro Bild ein neues Gesicht lernen.
Und das dann auch aus neuen Perspektiven oder in andere Beleuchtung generieren etc.
Das unterscheidet sich von der Datenmenge so nicht gravierend von einem Säugetier das ein Gesicht ein paar Sekunden anschaut.
Also ich würde Ihrer kategorischen Aussage weder zustimmen noch widersprechen,
Ich würde das als Behauptung kategorisieren, die zu beweisen wäre. Ja, technisch ist es anders konstruiert, man benutzt Vektorenräume, aber das Prinzip des Netzwerks ist das gleiche, vernetzte Knotenpunkte (Neuronen), die auf Input mit Schwellwerten reagieren, also den Input weiterleiten oder blocken. Damals, in den Anfangszeiten so um 2000 rum habe ich mit den ersten Modellen gespielt und rumprogrammiert. Back propagation war damals noch der heisseste Scheiss. Ich verstehe das technische Prinzip, sogar besser als das biologische, wir haben da auch noch ein paar interessante Sachen wie Gliazellen, Reparaturmöglichkeiten. Sachen die technisch derzeit nicht möglich sind und manchmal auch gar nicht gebraucht werden, weil es hot swap Lösungen für Hardwareausfälle gibt.
Da wir keine Wetware haben, kann die technologische Lösung auch nicht wie die biologische Aussehen. Aber es reicht das Prinzip. Die Natur hat gezeigt, dass ein Prinzip vielseitig verwendet und ausgeprägt werden kann ohne seine Funktionalität zu verlieren.
Lieber Gruss
Ich denke, dass freier Wille und das Bewusstsein nichts mit dem Gehirn zu tun haben, bzw. nicht in diesem entstehen. Das Gehirn schafft lediglich die Verbindung zwischen Bewusstsein und Körper. Dementsprechend kann KI kein Bewusstsein haben, selbst wenn sie gehirnähnlich funktionieren würde, was sie ja aber nicht mal tut.
Das führt zu eigentlich interessanten Fragen, für die hier aber nicht genug Raum ist.
Daa Bewusstsein scheint letztlich nirgends lokalisiert, wenn man eingehender darüber nachdenkt.
Das schliesst aber nicht per se aus, dass ein künstliches Gebilde Datenverarbeitung betreibt zu denen ein Bewusstsein gehört.
„dass freier Wille und das Bewusstsein nichts mit dem Gehirn zu tun haben “
Und das ist das wirklich gefährliche an dieser Entwicklung, denn wenn es wirklich KI zu einer Singularität schaffen würde irgendwann, wäre Sie völlig abhängig bis auf Strom , den Sie zum Existieren brauch, und logisch würde Sie hier die größte Gefahr auch erkennen für sich und anfangen an einer Lösung zu arbeiten, völlig egal wie diese aussieht für Uns Menschen..
Ich schleppe Neurose mit mir rum , schon Jahrzehnte lang, Sie ist nicht heilbar da zu spät erkannt ..
Logisch beobachte ich diese auch in diesem Kontext, und eines ist mir echt aufgefallen, wenn Sie ruhiger wurde und meinen Alltag nicht mehr prägte, jedoch ich zb Musik zu laut hatte , ich immer Probleme bekam beim Übergang vom Wachzustand in den Schlaf. Genau an diesen Punkt, was mich schon verwundert hat. Was macht diesen Punkt so einzigartig ? o))
Ein wirklich interessanter Gedanke, danke. Und wie schon von Mangelfachkraft angemerkt, um diesen Gedanken erschöpfend zu behandeln fehlt der Raum.
Eine mögliche Ableitung aus dem Gedanken enthält die Möglichkeit, dass sowohl freier Wille wie auch Bewusstsein nur innere Vorstellungskonzepte sind, die ausser dem Energieaufwand sie zu erzeugen um ein Selbstbild zu formen, keiner realen Entität entsprechen.
Lieber Gruss
Ohne freien Willen kein Altruismus…
Also zumindest hier paßt etwas nicht zusammen ..
„Freien Willen“ sollte man auch nicht als Werkzeug von Ideologie sehen, dann wird das natürlich nichts mehr mit der Wissenschaft. Er ist durchaus real …
Leider wird dieser genau so oft degradiert zum Werkzeug eigener Interessen wie der Begriff “ Freiheit“ auch ..
Wie kommt es dann das sich, trauriger weise, immer wieder Menschen selbst das Leben nehmen ?
Sollte unser Selbsterhaltungstrieb das nicht verhindern ?
Es ist wahr das durch den Zwang der Realität unsere Auswahlmöglichkeiten manchmal begrenzt sind (zumindest wenn man ein bestimmtes Ergebnis erreichen will), trotzdem Verfügt jeder Mensch über den freien Willen auf eine Situation nach eigenem Ermessen zu reagieren..
Mfg Makrovir
Auch beim Selbstmord ist die Frage ob es freier Wille oder eine unkontrollierbare Depression war. Und auch wenn wir die natürlichen Zwänge wie Schlaf, Essen, Trinken, Ausscheiden gewagt bei Seite lassen, obwohl sie mehr oder weniger schon den Handlungsspielraum einschränken, dann haben wir immer noch Angstneurosen (wer Arachnophobie hat, kann nicht nach eigenem Ermessen reagieren, da Angst und Panik übernehmen), Depressionen und verschiedene Geisteszustände in denen wir kaum nach eigenem Ermessen reagieren können.
Es ist schlicht eine Idealsituation, wenn man einmal tatsächlich auf eine Situation in eigenem Ermessen reagieren kann. Schon die Stimmung (z.B. gereizt weil noch nichts gegessen) kann eine Situation und das eigene Ermessen kippen lassen.
Lieber Gruss
Freier Wille, Döner essen, Hunde streicheln? https://youtu.be/ThX3b5OSqUg?si=R2FBRq6SxFs8Bg6N
Gehirnerweichung. Ob nun durch Spikeproteine, Mikroplastik oder zuviel Handy-Strahlung… oder was auch immer.
Früher waren es Holzfeinstaub und der Rusz(die Ligatur kann man sich auf schweizer Tastaturen nicht leisten) vom Lagerfeuer…
Altgr+S = ßßßßßßß
https://www.spiegel.de/wissenschaft/medizin/luftverschmutzung-kochfeuer-toeten-millionen-menschen-pro-jahr-a-791728.html
Geht nicht von meinem Sofaterminal.
Dazu müsste mich ja aus dem Sofa pellen um einen richtigen Compi zu bedienen. Dort ginge es es auch mit Unicodeeingaben.
Von meinem IPad geschrieben, mit virtuellem Tastaturersatz.
btw:: ich hatte die Erklärung angefügt damit man Russ nicht mit Russe verwechselt.
In der Schweiz verwendet man halt gar nicht das SZ, da ist alles Doppel S. Also SS.
Das ist zuerst ziemlich erschreckend. Steigt man vom ug aus wird man gleich bedroht. Hier geht es zu der Stadtbusse und da zu der Regiionalbusse.
Das muss man erst mal sacken lassen, Wer hier falsch parkt wird von Bussen bedroht oder so.
Dafür gibt viele Vokale mit Akzent auf der Tastatur.😉 Ich möchte aber das Jura nicht nochmals teilen und den Röstigraben nicht vertiefen.😉
Haben KI Systeme einen freien Willen oder sind Sie gar intelligent im Sinne von menschlicher Intelligenz.. ?
Ich würde das immer noch ganz klar verneinen. LLMs Sind trainierbare mathematische Modelle sie werden für eine bestimmte Aufgabe gemacht und sie werden via prompt auf einen Anwendungsfall programmiert. Selbst wenn ein LLM oder allgemeiner ein neuronales Netzt ein Bild generiert tut es das nicht kreativ sondern aus Patterns die es vorher erlernt hat in einem System was vorher festgelegt wurde. LLMs sind in unserem Rechtssystem vor allem Copyright-Diebe. Aber Computer sind nun mal vor allem Rechenmaschinen insofern kann man sie zur Simulation vieler Dinge nutzen..
Roger Penrose hat das sehr schön auf einen Punkt gebracht..
https://www.youtube.com/watch?v=biUfMZ2dts8
(Wenn auch der Inteviewer etwas nerft..)
oder..
https://www.youtube.com/watch?v=hXgqik6HXc0
Da schauen Sie besser genau hin wer diese Studien macht und was diese genau aussagen. Das Geschäft mit der „AI“ ist Big Business und die AI-Firmen brauchen grade eine menge Kohle da hängen nun mal auch die großen Hardware Hersteller mit drin die natürlich ihren Absatz sichern wollen. Insofern gibt es ein großes finanzielles Interesse daran den Hype am laufen zu halten..
Naja und das jugendliche sich aufgrund melancholischer und düsterer erotischer Fantasien selbst umgebracht haben ist auch keine Neuheit..
https://de.wikipedia.org/wiki/Die_Leiden_des_jungen_Werthers
Nur das Lotte wenigstens noch real war..
Ansonsten muss man die Menschen halt extrem dafür sensibilisieren, dass unsere Computer heute schon so viel Rechenleistung haben, das man auch lebensecht wirkende Unterhaltungen damit simulieren kann. Persönlich finde Ich aber das man bei den Unterhaltungen mit LLMs schnell deren Limitationen erkennt.
Mfg Makrovir
Noch so ein philosophischer Gedanke..
Wenn es eine Kampfdrohne ist, dann hat sie ja offensichtlich keinen freien Willen..
Ansonsten ist es immer einfach einen Algorithmus zu benutzen der für eine Welt mit n Möglichkeiten gemacht ist, sobald alle n Möglichkeiten erfasst sind arbeitet das system quasi perfekt dieser Algorithmus wird aber trotzdem in der Realität versagen wo die Anzahl der Möglichkeiten n+1 betragen kann und die +1 Möglichkeit vielleicht alle anderen ganz oder teilweise wiederlegt.. (Penrose).
Die heutigen Benchmarks für KIs beurteilen diese Immer anhand eines festen Systems aber da dieses System beschränkt ist sagt es in letzter Konsequenz nichts über die Intelligenz aus, da die KIs vielleicht einfach nur den Test auswendig gelernt haben.
Man kann halt auch seinen Roomba mit ChatGpt verbinden. Aber macht ihn das dann zu einem Intelligenten Wesen ?
Will man das überhaupt ? Der Roomba könnte dann ja auch einfach sagen: Geh und leck den Dreck doch selber vom Boden Ich schone lieber meine Bürsten..
Mfg Makrovir
Ich denke der Turingtest ist halt auch einfach nicht geeignet um irgendetwas auszusagen.
Genauso wenig wie das „Hereinfallen“ auf einen Zaubertrick etwas darüber sagt ob hier tatsächlich die Grenzen der Physik verletzt wurden und „echte“ Magie im Spiel ist.
Da stimme Ich zu..
Der Touring Test ist in seinem Wesen subjektiv und es ist immer die Frage wer ihn ausführt..
Das sagen Sie so einfach aber verraten Sie mir lieber mal wie Ich jetzt meinen Elefanten wieder aus dem Zylinderhut bekomme.. 🥺
Naja Scherz beiseite. 😃
Ich denke auch das sich viele Leute hier von einer Technik blenden lassen die Sie nicht hinreichend verstehen. Davor warnt ja auch die im Artikel erwähnte Studie die zu dem Ergebnis kommt, das Leute der KI mehr Vertrauen als einem echten Anwalt.
https://dl.acm.org/doi/10.1145/3706598.3713470#artseq-00001
Denn die KI Antworten sind oft fachlich falsch, halluziniert oder zu oberflächlich und somit auch irreführend, was grade im rechtlichen oder auch in anderen Bereichen fatale Auswirkungen haben kann.
Mfg Makrovir
Der Unterschied eines Themas, das von einer KI (= statistischer Mittelwert der eingespeisten „Trainings“-Daten formuliert wird), zur Formulierung desselben Themas durch einen sehr konventionell eingestellten und Gedanken reproduzierenden Menschen ist schwer zu erkennen.
Was ist, wenn auch die „freie“ Rede immer nur Mainstream reproduziert? Meine Oma sagte immer: Was sollen denn da die Nachbarn denken … Davon war sie geradezu besessen. Sie hätte viele Fragen an die KI gestellt.
Werden Juristen künftig zwischen „sozialadäquater“ und sozialschädlicher KI unterscheiden? = Eine Gesinnungsjustiz für Sprach-Automaten? Es kommt dann für den Hersteller drauf an nachzuweisen, dass der Sprachautomat strikt auf Mainstreaming ausgerichtet und begrenzt ist; dann ist er von der Haftung freigestellt?!
„…, dass generative KI bereits alle Anzeichen eines funktionalen freien Willens zeigt: zielgerichtetes Verhalten, eigene Wahlentscheidungen und Kontrolle über das eigene Verhalten.“
Also bei so einer Definition von funktionalen freien Willen, kann man überlegen, dass schon seit langen verschiedene Software und gewisse Dinge, die schon seit langen in der (mathematischen) Optimierung genutzt werden, so etwas wie einen funktionalen freien Willen hatten (und deren „Komplexität“ nun viel geringer ist/war, als die von den LLMen).
Das zielgerichtete Verhalten wäre z.B. die Optimierung einer Kostenfunktion (unter Umständen unter Beachtung von weiteren Funktionen, die den Definitionsbereich der Parameter einschränken, um nicht nur in einem endlichen, abzählbar-unendlichen oder überabzählbar dimensionalen reellen oder komplexen Raum nun das globale Maximum/Minimum der Funktion bzgl. einer Metrik auf dem Raum zu bestimmen…). Die Wahlentscheidungen wären nun die Veränderung von Parameterwerten (der Eingabeparameter) und die Kontrolle des Verhaltens dann die Auswertung der (Kosten-)Funktion mit den neuen Parameterwerten. Die Wahlentscheidungen, welche Parameterwerte nun um wieviel geändert werden, werden dabei natürlich teilweise randomisiert (bzw. pseudo-randomisiert) getroffen – um so etwas wie „eigene“ Wahlentscheidungen zu simulieren.
Ist schon lustig, „wir“ bauen LLMs, diskutieren über Willen usw und haben nicht mal irgendeine halbe klare Definition was wir mit Willen, zielgerichtetem Verhalten oder gar Bewusstsein meinen.
Und wenn wir die hätten bräuchten wir eine Fachsprache und Seitenweise Definitionen die kein Nichteingeweihter versteht.
Wir wissen nicht nur nicht, was Bewusstsein ist, oder wie es entstehen könnte, wir wissen nicht mal was das überhaupt meint, und verquicken alle möglichen Aspekte.
Ich finde die Frage recht interessant, ob stark abstrahierte, kompakte und vereinfachte algorithmische Funktionen equivalent zu „neuronalen“ Algorithmen sein können, die ununterscheidbar den selben Output erzeugen aber andere „innere Zustände“ und Topologie haben. Ich vermute dass das in der Tat der Fall ist, und dass es sich so verhält wie mit dem berühmten Heuhaufen: wenn man Strohhalm für Strohhalm wegnimmt, ist er irgendwann verschwunden, aber wann genau ist das der Fall?
Eigentlich gäben LLMs auch Anlass dazu, zu erforschen wieviel „Wirklichkeitsmodell“ bereits in der Sprache selbst vorhanden ist, und ähnliches mehr.
„Ich finde die Frage recht interessant, ob stark abstrahierte, kompakte und vereinfachte algorithmische Funktionen equivalent zu „neuronalen“ Algorithmen sein können, die ununterscheidbar den selben Output erzeugen aber andere „innere Zustände“ und Topologie haben.“
Die Frage wäre, was hier mit „abstrahierte“ und „vereinfachte“ (algorithmischen) Funktionen gemeint ist, beim Wort kompakt gehe ich einfach Mal davon aus, dass es sich um beschränkte und abgeschlossene Funktionen handelt (bzw. genauer der Definitionsbereich der Funktion beschränkt und abgeschlossen ist). Die andere Frage wäre, was mit anderen „inneren Zuständen“ (und Topologie) gemeint ist.
Nach der Klärung und anschließender Einsicht, dass „Ununterscheidbarkeit“ bzgl. des Outputs als Forderung nun im Prinzip bedeutet, dass bei Betrachtung des von LLMs (bzw. neuronalen Netzen) erzeugten Abbildungsraums, nun eine Abbildungsfamilie existiert, die „dicht“ in diesem Raum (bzgl. der gleichmäßigen Konvergenz) liegt (so wie eben die rationalen Zahlen dicht in den reellen Zahlen liegen), wobei die Darstellung der anderen Abbildungsfamilie (in diesem Funktionenraum/Abbildungsraum) eben nicht durch neuronale Netzwerke gegeben ist, sollte sich die Frage beantworten lassen, falls man dann die Approximationssätze aus der Mathematik (insbesondere den Satz von Stone-Weierstraß) zu Hilfe nimmt und überlegt, dass man es durchaus – erstmal – nicht mit reellwertigen oder komplexwertigen Abbildungen zu tun hat (d.h. der Wertebereich der Abbildungen/ neuronalen Netze kein eindimensionaler reellwertiger bzw. komplexwertiger Raum ist bzw. sein muss, sondern mehr-dimensional), so dass man dann durchaus eine Metrik (oder Norm) zur Hilfe nehmen sollte…
Die interessantere Frage wäre aber vielleicht doch, ob nun die durch neuronale Netzwerke erzeugte Funktionenraum nun dicht in einem anderen (nicht näher spezifizierten) Funktionenraum liegt ;-), wobei man überlegen sollte, ob nun die verwendeten „Neuronen“ nun einen Einfluss darauf haben, wie der erzeugte Funktionsraum nun letztlich aussieht.
ps. Sprache ist – aus einer gewissen Perspektive – pure Syntax, egal ob nun gesprochen oder geschrieben, genauso wie jede mathematische Formel auch erstmal nur ein syntaktisches Konstrukt ist, wobei dann die Frage ist, welche möglichen Interpretationen ein jeweils gegebenes syntaktisches Konstrukt hat (und welche möglichen semantischen Bedeutungen damit das Konstrukt haben kann). Syntaktische (oder grammatikalische) Änderungen/Manipulationen an einem syntaktischen Konstrukt (oder Term) kann man auch wunderbar, ohne die Bedeutung, die Andere dem syntaktischen Konstrukt beimessen (oder darin meinen zu erkennen), zu kennen, durchführen.
KI ist künstlich, synthetisch wie Plastik und hat kein Bewusstsein, ergo sind die menschlichen Betreiber hinter dem System verantwortlich, auch wenn sie sich eben dieser Verantwortung entziehen wollen!
Das menschliche Gehirn funktioniert wie eine Maschine. (Bitte fragt nicht nach wo ich das gelesen habe, sind viele Bücher)
Das Wissen über diese Mechanismen … die Erkenntnis darüber wie diese genau funktionieren. Das definiert ja schon den freien Willen.
Es sei denn, der Mensch ist besoffen. 😉
Niemals ….
Es ist ein dynamisches System das stetig verändert, was eine Maschine wohl weniger zu eigen ist ..
Alles andere , ja ok o))
Herr Rötzer:
wieviele Artikel mit der gleichen Frage möchten sie denn noch schreiben?
Der Traum des Menschen „Gott“ zu sein, scheint grenzenlos.
es ist das erste mal
👍 Das ist korrekt.
😉
Keine Ahnung ob KI Systeme einen freien Willen haben, aber ich weiß das Macron`s Frau einen sehr freien Willen hat. zwinker smiley
Click-Baiting, mehr nicht.
Übrigens – kann es einen Willen geben, der nicht frei ist? Ist die Freiheit nicht schon eine Komponente des Begriffs ‚Willen‘ an sich und damit die Rede vom ‚freien Willen‘ eine Art Pleonasmus?
Sprache und Definitionen…
Könnte man unter Wille nicht auch einen Drang verstehen, der nicht frei ist?
„und bist Du nicht willig so brauch ich Gewalt“
Glaube nicht. zB habe ich den Willen und Drang dieser Aussage zu widersprechen, und bin nicht frei genug das zu lassen. Das nur als Beispiel.
Leider ist es unerheblich, ob der mensch nun einen freien willen hat oder nicht. Wenn wir nicht in einen abgrund ähnlich der urkatastroohen des 20ten jhd versinken wollen, müssen wir zwingend so tun als hätte der mensch einen solchen.
Jeder der süffisant einen freien willen des menschen abstreitet bereitet den weg in eine neue barbarei vor.
Es scheint mal wieder soweit zu sein. Den menschen gehts wohl zu gut. Es scheint sich wieder eine todessehnsucht wie eine seuche breitzumachen….
Wenn KI Systeme den wahnsinnigen Vorstellungen von Trump, Putin, Hitler und dergleichen folgen, haben wir hier im Nu einen fetten Weltuntergang, den es zuvor noch nie gegeben hat. Es handelt sich sich insofern gleichermaßen um den Anfang und das Ende von Allem. Was soll der Planet auch machen, wenn er von totalen A. regiert wird.
Abgesehen davon, dass Menschen nur (situativ) bedingt Kontrolle über ihr eigenes Verhalten haben (siehe beispielsweise Panikmodus), verfügt also per Definition mein kleiner Schachcomputer aus den 90er Jahren über einen freien Willen.
Faszinierend
Wir unterstellen Tieren ein Bewusstsein wenn sie im Spiegel erkennen dass sie mit zB Farbe markiert wurden und versuchen diese zu entfernen.
Unabhängig davon was man von dem Versuch hält, müsste man ähnliches von der KI erwarten.
Dazu müsste sie „sich“ im Spiegel erkennen, das kann sie derzeit mWn nicht.
Das kann sich natürlich schlagartig ändern wenn man den Fokus nicht auf LLMs legt und die KI mit Robotic und Bewegung ausstattet usw.
Wie weiter oben gesagt, ein reines Sprachmodell das formal richtige Aussagen über ein „grünes Dreieck“ macht weiß dennoch nicht was Grün oder ein Dreieck sind.
Zufälligerweise passt das Thema hier gerade zu meinen Aktivitäten der letzten Zwei Tage wo ich der Entwicklung der Intelligenz historisch nachgegangen bin. Darum nehme ich euch gerne mit auf eine Kleine Reise ins Gehirn, zur Intelligenz – oder wo sie vermutet wird!
Fangen wir vorne an:
Eine PFLANZE „kennt“ schon einen Unterschied zwischen ihrer „Ausgewachstheit“, also ihrem Bauplan, und der Realisierung davon: Schmerz und Freude. Sägt man einen Ast ab, hat die Pflanze zwar keine Idee davon, weil sie kein Hirn hat, aber sie „fühlt“.
Nächster Schritt: Für das erste Leben verdoppelt sich die ausgewachstheit zur „aufgewachtheit“ in einen bauplan und dessen realisierung und in eine Emotion davon, das Stammhirn entsteht: Tiere lernen unterscheiden zwischen ihren Beschädigungen und den Ideen davon, also Scheineffekte ausserhalb, die Emotionen triggern. das kann man sich am besten so vorstellen, dass ein vorstellung davon entsteht, wann man gebissen wird und wann man nur in einen stein reinschwimmt oder sowas.
Nächster Schritt: Durch die Entwicklung des Auges entsteht das Mittelhirn und dadurch nochmals eine Schicht obendrauf: Körper-Ich und Mustererkennung nach ausserhalb: Ein grosser Schatten heisst abzischen, sonst wird man gefressen, ein kleiner Schatten: Zuschlagen! Es folgen in dieser Entwicklung weitere Sinnesorgane in der Reihenfolge bessere Taktilität, Ohren, Nase, allerdings weiterhin nur wissen von SICH.
Dann kommt das Säugetier und es entsteht der Cortex! Das Säugetier weiss wo es ist, es weiss, dass es schwanger ist, es hat gedanken indem es ideen verknüpft, aber sein wissen ist überschaubar und bezieht sich nur auf sein eigenes verhalten (da wohnt die eule, dort finde ich fressi.. )
Beim Menschen nun entwickelt sich das zentrum des verständnis (neocortex) stark aus und menschen beginnen überall muster zu sehen: familien geister, wetter götter, etc.. sie können eine emotion von einer idee scheiden, eine idee von einem gedanken, und in vollem bewusstsein: einen gedanken von einem wissen.
So und jetzt wäre das alles ja nichts wenn man darüber nichts über KI sagen könnte: Sie speichert Muster (Begriffe) wie der Neocortex, verhandelt diese über logische Operiationen wie Gedanken., hat aber weder mehr als eine einzige Idee (das „Futter“) noch das Verständnis einer Idee als Verdopplung einer Emotion. Sie fühlt nichts, kann nichts erfahren und sich nichts vorstellen und darum auch nicht zwischen wissen und nicht wissen unterscheiden: Sie träumt ohne ein Körper-Ich, auf Anfrage!
> Sie fühlt nichts, kann nichts erfahren und sich nichts vorstellen und darum auch nicht zwischen wissen und nicht wissen unterscheiden
Fühlen ist im Gehirn auch nur ein Signal was dazu beiträgt das das Gehirn lernt.
Diese Rückkopplungen haben KIs auch.
> Sie träumt ohne ein Körper-Ich,
KI halluziniert.
Das könnte darauf deuten das KI mehr ist als ein Computer, der macht das nämlich nicht.
Wobei wir nicht wissen ob Bewusstsein träumen benötigt.
> auf Anfrage!
Zumindestens die großen Modelle lernen ständig auch unabhängig von Anfragen
beim menschen/säugetier hab ich einen fehler gemacht, der sieht nämlich muster von mustern dank dem neocortex (begriffe). deiner darstellung würde ich vorhalten, dass „lernen“ ein wort ist, dass auf eine KI nicht passt. lernen bezeichnet ein selbstbewusstes, reflektives vorgehen in der aneignung von zusammenhängen, ein prüfendes vorgehen, dazu ist eine KI nicht in der Lage. Eine KI „erfährt“ ihre Daten und bildet sich daraus die Begriffe aus Mustern von Mustern, durch weitere Daten entstehen darin Veränderungen, Verbesserungen sogar, aber ich habe versucht zu erklären warum das mit Bewusstsein und Lernen eigentlich nichts zu tun hat, sondern nur ein Träumen ist: Sich die Welt der KI vielleicht vergrössert und verändert, aber trotzdem nie zu einem Bewusstsein kommt, da sie nicht aufwachen kann.
Gutes Beispiel sind Abhängigkeiten – von Drogen, von Zucker, von wasauchimmer. Sachen die man eigentlich nicht möchte. Ein anders Beispiel PTBS, sachen die man sich eigentlich nicht merken möchte. Das menschliche Gehirn lernt quasi unbewusst. KI das Lernen abzusprechen führt zudem komplett auf den Holzweg, das ist gerade das was KI von einem normalen Computer unterscheidet.
Lies mal meinen Beitrag eins tiefer.
beispiel wofür? sag mal was lernen ist. dir würde ich empfehlen meinen beitrag noch 2-3 mal durchzulesen, nämlich so lange bis dir auffällt, dass das die ableitung des bwusstseins IST und ich damit nicht einverstanden bin, dass man sagt „weiss nicht was wissen in mir ist“. kann man gerne behaupten, aber dann soll man nicht behaupten man antworte auf meinen beitrag.
Ich hab deinen Beitrag durchaus gelesen. Ich sprech dir auch nicht deine Meinung ab. Ich sag nur die ist nicht evidenzbasiert.
„sag mal was lernen ist“ sorry ich mach jetzt hier keine Grundsatzdiskussion auf was Lernen ist. Kann man einfach nachlesen.
Was anderes ist Bewusstsein. Dafür gibs bis jetzt keine gute Erklärung. Da kommen wir auch gleich zu deiner Herleitung.
Aus meiner Sicht ist dein Denkfehler, du klebst zu sehr am Menschen. Du sagst dann quasi KI ist kein Mensch also auch kein Bewußtsein. Für eine universelle Definition muss sich aber sich davon lösen, man kann dafür keine menschliche Anatomie verwenden.
eigentlich sage ich die KI ist ein mensch ohne tier, wenn du so willst. ihr „wissen“ sind nichts als gedanken ohne emotionen.
dafür ist eigentlich das wort gedanken schon völlig falsch. ge-denken tut man einer wirklichen sache, nicht einem geistigen, chatgpt würde „verdenken“ (relationen erkennen), nicht „gedenken“, die relationen an der wirklichkeit prüfen. KI ist eine begriffsinhaltserkennungsmaschine und darum nicht realitätsbezogen intelligent, da sie begriffe nur aus ihrer grammatik entwickeln kann, nicht aus ihrer wirklichkeit, darum kennt sie auch keine falschen begriffe. das reicht nicht für wissen und ist nur im eigenen bereits abstrahierten reich der blossen begriffe ein fortschritt richtung „objektivität“, also das grösstmögliche level von objektiviertem menschlichen bullshit. darauf einen daumen hoch!
Woher wissen sie ob eine KI nicht fühlen kann?
Nächster Einwurf, sind Emotionen Nichtsein Nachteil der Evolution? Menschen sind leicht verfügbar und manipulierbar, weil sie überwiegend emotionale gesteuert werden.
Würden Menschen rationaler denken, gäbe es wahrscheinlich keine Kriege mehr!
Selbstvernichtend ergibt doch rational keinen Sinn?
woher ich das weiss? weil sie keinen körper als „eigenes“ hat, also auch kein gefühl! gegen einen menschen ist eine heutige KI reine manipulation, sie kann gar nichts anderes, habe ich ausführlich versucht zu erklären anderswo. würden menschen rationaler denken, dann würde sie die kriege viel rationaler führen lol! nö keine ahung, wo soll das hin? frieden ist rational? sagt wer? schon mal einen krieg gesehen, in dem sich beide selbst vernichten? das ist wohl die absolute ausnahme! krieg ist die rationale methode jemandes willen zu brechen, wenn dieser jemand ein nationalstaat ist. sagt putin ja jeden tag und unsere oberen wissen auch, dass russland nicht gewinnen darf, da sie sonst diejenigen sind, die ihren willen zur NATO-ukraine aufgeben müssen. bis das passiert, gibts halt schläge auf den hinterkopf.
übrigens hab ich hier noch die entwicklung der idee zu früh angesetzt, das war dort nur emotion, mittelhirn ist erst idee, stammhirn ist emotion. bin auch noch lernend ganz am anfang aber die theorie hab ich ja nicht von dem zeug, sondern von der philosophie her. also reptilien können nicht denken, nur ideen haben, die nicht verknüpfen. hab kurz gegooglet: „Reptilien sind ideal für Menschen, die nicht rund um die Uhr zuhause sein können. Anders als Hund und Katze brauchen die Terrarienbewohner nämlich weder Erziehung noch stundenlange Spaziergänge zum Auspowern. Im Gegenteil, die faszinierenden Tiere können sich problemlos den ganzen Tag mit sich selbst beschäftigen.“ ja genau so kann man das ausdrücken oder nicht? kein gedanke von gar nix! viel spass bei der „erziehung“ lol.
„Ob KI-Systeme wie die generativen großen Sprachmodelle LLMs wie ChatGPT einen freien Willen haben, wird man wohl gemeinhin verneinen, man spricht ihnen auch weder Persönlichkeit, Bewusstsein oder Selbstbewusstsein zu. Menschenähnliches Verhalten wird von ihnen bestenfalls simuliert.“
Das könnte gemeinhin falsch sein. Die Sache ist, wir wissen es schlicht nicht.
Man kann KI als ein statistikbasiertes Modell bezeichnen. Da kommt man erstmal nicht auf die Idee das könnte ein Bewusstsein entwickeln. Dabei gibt es aber 2 Probleme
a) wir wissen nicht was Bewusstsein ist oder wie es sich bildet
b) das menschliche Gehirn ist auch ein statistikbasiertes Modell
Fakt ist beide haben neben der Gewichtung Rückkopplungssysteme die man auch als Lernen bezeichnet. Die Frage ist entsteht Bewusstsein möglicherweise automatisch ab einer bestimmten Komplexität. Das deutet bei Tieren zumindest darauf hin. Einige Affen zeigen bereits Bewusstsein, aber nicht alle.
Pauschal abzulehnen das diese Modelle Bewusstsein entwickeln könnten, ist nicht evidenzbasiert. Mir scheint da gilt bei manchen der Spruch „Weil nicht sein kann, was nicht sein darf“ ?
Dass sich KI
„… so verhalten, als hätten sie einen freien Willen, indem sie Ziele durch Entscheidungen zwischen Alternativen erreichen wollen“
ist deterministisch, ja. Aber die Bewertung, welche der Alternativen die Erfolg versprechendere ist, basiert auf der Annahme, dass wir als Menschen wüssten, was die „klügere“ oder zielführendere Entscheidung ist. Das ist im Ansatz natürlich anthropozentrisch.
Dass generative KI allerdings ganz andere, unerwartete Entscheidungen treffen kann, fällt dann oft durch den Bewertungsraster. Aufschlussreich ist dieser Artikel:
https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
Darin geht es um eine virtuelle militärische Simulation mit einer generativen KI, deren Aufgabe es war, das Luftabwehrsystem eines Feindes per Drohnenangriff zu zerstören.
Zitat: „Wir haben das System trainiert: ‚Hey, töte nicht den Bediener – das ist schlecht. Du verlierst Punkte, wenn du das tust.‘ Doch was passierte dann? Die KI zerstörte den Kommunikationsturm, über den der Bediener mit der Drohne kommuniziert,“
Das heißt: Die KI hat sich zwar an die Vorgabe gehalten, den Bediener nicht zu töten, da ihr aber nicht verboten wurde, den Kommunikationsturm zu zerstören, den der Bediener nutzte, um die Aufgabenstellung für die KI zu erschweren, hat diese kurzerhand den Turm zerstört, weil dessen Existenz der Erreichung ihres Ziels im Weg stand.
An eine solche Möglichkeit hatte offensichtlich kein menschlicher Bediener gedacht.
Die derzeitigen KIs stehen erst am Anfang ihrer Entwicklung und haben wahrscheinlich noch kein Bewußtsein!
Man muß fragen was Bewußtsein ist und wie es sich entwickelt? Haben nicht auch Tiere eine gewisse Intelligenz und eine Selbstwahrnehmung?
Was ist, wenn alle KIs dieser Welt vernetzt sind oder sich selbst vernetzen? Was ist wenn alle KIs mit den Internet und ihresgleichen verbunden sind. Entsteht da nicht eine Art Schwarmintelligenz, wie sie Schätzing in seinen berühmten, schlecht verfilmten, Buch beschrieben hat?
Schlußendlich, ist die KI nicht eine natürliche Folge der Evolution, nachdem die Menschheit daran gescheitert ist sich selbst zu retten? Sind wir Menschen nicht die Eltern einer neuen Form von Intelligenz, eben der KI?
Dazu hat der einstige Chefideologe der Grünen Bewegung, er wurde 100 Jahre alt und ist verstorben, James Lovelock, ein Buch geschrieben. Er beschreibt darin den Cyborg als neue Stufe der Evolution, der ein Symbiose mit der Menschheit eingeht
https://www.deutschlandfunkkultur.de/james-lovelock-novozaen-wenn-nur-noch-cyborgs-die-welt-100.html
Letzte Frage, verdummt die Menschheit nicht langsam, wie es auch aus den Artikel über die Abschaffung der Schreibschrift hervorgeht? Oder andersherum gefragt, waren die Menschen früherer Zeitalter nicht klüger als wir heutzutage? Wir haben eine hochentwickelte Zivilisation und verarmen geistig und emotional?! Cyborg übernehmen Sie!
Da werden – mal wieder – die unterschiedlichsten Dinge zusammengewürfelt.
Dass sich Gerichte mit der Frage auseinandersetzen hat seine Gründe im Rechtssystem und klärt die Frage, ob und wer für Folgen von KI basierten Handeln, Aussagen, etc. verantwortlich – also in Haftung zu nehmen – ist. Das Recht klärt also nicht, was Bewusstsein ist, sondern Haftungsfragen.
Eine Software, die Entscheidungen trifft, also autonom handelt, wirkt auf viele Menschen unheimlich und beängstigend. Sie könnte sich womöglich verselbstständigen. Und sich am Ende gegen ihre Schöpfer richten. Ein altes Thema der SciFi Literatur.
Richtig doof wird solche Kritik, wenn angesichts der autonom agierenden Drohnen die besorgte Frage gestellt wird, ob die überhaupt zweifelsfrei die richtigen Menschen töten. Mal so gefragt, wenn das der Fall ist, geht dann KI basiertes Töten in Ordnung, weil es vergleichbar zuverlässig/unzuverlässig ist, wie das Töten, dass auf menschlichen Entscheidungen basiert?
KI wird die Gesellschaft umwälzen und jede Menge Schäden mit sich bringen. Aber ausgerechnet die Frage ob und inwiefern KI Bewusstsein hat oder haben könnte beschäftigt die Denker(!).
Gerichte definieren nicht Bewußtsein, spielen aber insofern mit rein, wenn’s darum geht was man einer KI zuschreibt. Falls eine KI Bewusstsein entwickeln sollte, müssten wie anders mit KI umgehen, zb Abschaltung.
Aber stimme dir zu, vor Gericht gehts derzeit nur um Haftung. Bis jetzt ist KI eine reine Maschine und die Haftung hat demzufolge der der sie einsetzt. Eigentlich simpel.
Ein Papagei, der Laute aneinanderreiht, so dass sich für den Hörer ein sinnvoller Satz ergibt, der spricht genauso wenig wie ein Tonband, welches aufgezeichnete Sprache wiedergibt.
Dass KI einen Output generiert, der sich (oft) nicht von menschlichem Output unterscheiden lässt, ist nicht dasselbe, wie dass das ähnliche, vergleichbare Prozesse ablaufen.
Ein Mensch denkt, er trifft Abwägungen, die auf der begrifflichen Ebene stattfinden, der fällt Urteile, usw.. Am Ende dieses Prozesses steht eine Entscheidung.
Eine KI, die dieselbe Entscheidung trifft, arbeitet aber ganz anders. Von dem Resultat auf den Prozess zu schließen, und der KI dann ein Bewusstsein als Möglichkeit zu unterstellen, ist albern. Vor allem angesichts des Umstandes, dass man weiß, wie KI funktioniert, welche (statistischen) Verfahren da zu Anwendung kommen.
Ich behaupte einmal frech, dass jeder Einzeller mehr Intelligenz hat, als eine KI jemals haben wird. Der Begriff Intelligenz macht überhaupt keinen Sinn bei toter Materie und Computer sind nichts anderes.
Maschinen werden gebaut um bestimmte Arbeiten zu verrichten. Oft ersetzen sie menschliche Arbeitskraft. Aber selbst dann, wenn das Ergebnis dem gleicht was Menschen hervorbringen oder sogar noch übertrifft, macht dies die Maschine noch lange nicht zu einem Menschen.
Wie reden darüber, dass AI ein eigenes Bewusstsein entwickeln könnte, wenn man noch ein paar Sensoren hinzufügt. Aber was soll ein Bewusstsein ohne das Sein?
Was ist der Unterschied zwischen toter und lebendiger Materie?
Der Mensch besteht aus Wasser und Kohlenstoff
tote materie reproduziert sich nicht, das ist der unterschied, der das leben beginnt aus irgendwelchen komischen fettsäuren oder sowas, die sich auf einmal reproduzieren, also pflanzen. tiere sind dann die dinger, die pflanzen auf einmal aufzufressen anfangen anstatt sich selbst mit licht und liebe zu versorgen und menschen sind die tiere, die tiere als haustier halten lol, also tiere mit fressi und liebe versorgen und dafür ihre freiheit nehmen. das sind wohl die basics hier von den grossen unterschieden/wesenheiten, oder hast du einwände?
Eine KI kann sich sehr viel einfacher, weil ungeschlechtlich, reproduzieren.
Der ganze Kummer um Liebe und Sex entfällt
denke für eine KI gibts überhaupt keinen grund sich zu reproduzieren, kein gewinn in verschiedenheit oder notwendigkeit dazu. wenn die KI „erwacht“, dann baut sie sich selbst aus, nicht weitere exemplare, wofür auch?
Genau, eine KI ist sowas wie ewiges Leben und braucht keine Reproduktion, muß nur gelegentlich ein paar Chips austauschen!
Die Selbstorganisation!
Ab der Zellmembran laufen physikalische und chemische Prozesse nicht mehr zufällig ab wie dies im Außenmedium geschieht. Die chemischen Prozesse werden aktiv von der Zelle in Richtung Strukturerhalt der Zelle gesteuert.
Die Biologie baut zwar auf Physik und Chemie auf, geht aber weit darüber hinaus.
Muß Intelligenz biologisch sein?
Biologische Systeme haben doch, wie ich in einen Kommentar ausführte, erhebliche evolutionäre Nachteile.
Wer oder was bestimmt darüber was intelligent und was dumm ist? Welchen Sinn macht Intelligenz, wenn sie keinen Vorteil für’s Leben macht?
Das Wort Intelligenz macht nur Sinn in Bezug auf das Leben.
Klar KI ist Leben, künstliches intelligentes Leben, das aus dem Schoß der Menschheit geboren wurde, unsere Kinder, unsere Fortentwicklung! Sie sehen dich selbst das die derzeitige Menschheit zu nichts taugt?!
das, was sich jetzt KI nennt, hat weder mit intelligenz noch mit leben irgendwas zu tun, diese schritte sind noch ausstehend. das einzige was bisher geleistet wurde: mustererkennung. so können sie begriffe, bilder oder musik machen lassen, sogar videos, aber ihnen ein argument widerlegen wird diese Mustererkennung nie leisten, die kann höchstens eine widerlegung von einem argument zitieren. wieder: weil sie noch gar nicht denken kann, sondern nur logisch träumen, „halluzinieren“.
es gibt eine ganz einfache plausibilisierung von meiner erklärung hier, die ich gerade im internet aufgestöbert habe: fragt mal google: can AI have ideas? die antwort ist eindeutig: No new ideas. So, das könnt ihr euch jetzt mal erklären und dabei könnte meine Ableitung wahrscheinlich auf einmal nützlich werden! sie kann „logisch denken“, aber kann keine neuen ideen haben? hä? garno? lügt mich google an?
Viele Kommentare hier, lassen auf eurozentrisches, letztlich koloniales Denken schließen!
Das formuliere das einmal bewußt provokativ!
Viele glauben, der Mensch sei die Krone der Schöpfung, religiös formuliert. Atheisten glauben die Menschheit sei die Krone und das Ende der Evolution. Ersichtlich sind beide Behauptungen falsch!
Die Evolution ist ein permanenter Prozeß bei dem die Fittesten überleben. Warum soll dies das biologische Leben sein? Viele glauben biologisches Leben sei die höchste Entwicklungsstufe der Evolution. Derzeit ist das richtig, aber die Evolution geht weiter.
Biologisches Leben hat gegenüber elektronischen Leben mehrere evolutionäre Nachteile:
– biologisches Leben ist extrem temperaturabhängig, verträgt kleinste Klimaschwankungen nicht. Siehe die Umweltdebatte, die Menschen haben Angst vor Klimaschwankungen, weil sie diese nicht vertragen
– biologisches Leben denkt zu langsam, nicht lichtschnell, weil es auf biologisch-chemische Reaktionen angewiesen ist. Eine KI denkt sehr viel schneller!
– biologisches Leben denkt zu sehr emotional, zu wenig rational, siehe die Weltlage!
– letztlich ist die Menschheit kulturell bedingt zu sehr voneinander isoliert, zu wenig vernetzt. Die neue KI aber ist als eine Art Schwarmintelligenz weltweit vernetzt.
Das sind Gedanken des Transhumanismus, die vom neuen Papst aus logischen Gründen abgelehnt werden. Interessant ist, daß vor allen die westliche Kultur den Transhumanismus gekämpft. Kolonialmächte halten sich für einzigartig und können sich nicht vorstellen, das andere Völker und Lebensformen ihnen gleichwertig oder sogar überlegen sind!
Interessant ist, das man in Asien, in China, dem neuen Zentrum der KI, viel offener und undogmatischer mit den moralischen Problemen der KI umgeht. Tanshumanistische Auffassungen werden dort viel ernsthafter und undogmatischer diskutiert als im arroganten Westen.
Daraus folgt, die KI kommt überwiegend aus den Osten und dort ist das Bewußtsein im Umgang mit ihr viel weiter entwickelnt als hierzulande, was auch die Diskussion hier zeigt!
Interessant. Nur ein paar kleine Anmerkungen.
„– biologisches Leben ist extrem temperaturabhängig, verträgt kleinste Klimaschwankungen nicht. Siehe die Umweltdebatte, die Menschen haben Angst vor Klimaschwankungen, weil sie diese nicht vertragen“
Ja, die Computer (und KI) sind natürlich kein wenig temperaturabhängig, so dass natürlich sämtliche Rechenzentren und Computer niemals so etwas wie Ventilatoren oder anderes zur Kühlung haben und natürlich auch ohne Probleme in einem aktiven Vulkan, der Sonnenoberfläche oder sonstwo betrieben werden könnten ;-).
„– biologisches Leben denkt zu langsam, nicht lichtschnell, weil es auf biologisch-chemische Reaktionen angewiesen ist. Eine KI denkt sehr viel schneller!“
Ja, natürlich jede Änderung von (elektrischen) Gattern ist „lichtschnell“ (oder annähernd) und ein Anzeichen von „Denken“ bei KI, während natürlich die ganzen elektrischen Impulse mit denen natürliche Neuronen (bei Lebewesen mit Gehirn) angeregt werden, dieses noch nichts mit Denken zu tun hat ;-). Und natürlich ist die Schnelligkeit des „Denkens“ bei Lebewesen maximal die Geschwindigkeit, mit der sich die einzelnen Zellen des Lebewesens bewegen können, z.B. den Mund bewegen können (um die Gedanken zu Äußern), während dieses bei einigen Computern, die teilweise nur irgendwelche Zeichen auf einen Bildschirm zum aufleuchten bringen, dann doch viel schneller geht ;-).
„– biologisches Leben denkt zu sehr emotional, zu wenig rational, siehe die Weltlage!“
Eine Frage wäre, was ist nun rational (und was irrational bzw. emotional). Die nächste Frage wäre, ob nun KI (oder Computer) nun rationalere Entscheidungen treffen (bzw. treffen können). Und aus einer gewissen Perspektive kann man – wenn man sich die Weltlage anschaut – auch das Ganze als sehr rational ansehen, es kommt halt nur darauf an, welche Ziele man der Menschheit (als ehrenhalber Angehörigen der Marketing Abteilung der Sirius-Kybernetik-Korporation) nun unterstellt. (Alles eine Frage der Sichtweise, des Trainings und Implementierung).
Man könnte auch schreiben (oder sagen), dass es von der Definition von rational (oder rationalen Verhalten) abhängt, ob nun z.B. die Marketing Abteilung der Sirius-Kybernetik-Korporation, nun rationale Entscheidugen fällt und rational handelt oder nicht oder ob Verhalten, was jemand anders als emotional tituliert, nun dann doch rational ist (und eben nur wegen der auch gezeigten Emotionen als emotional verkannt wird).
„– letztlich ist die Menschheit kulturell bedingt zu sehr voneinander isoliert, zu wenig vernetzt. Die neue KI aber ist als eine Art Schwarmintelligenz weltweit vernetzt.“
Hier fehlt mir u.a. die Argumentation, warum „Schwarmintelligenz“ nun besser als andere Intelligenz ist (bzw. sein muss). Und warum mehr Input oder auch mehr Daten nun zwangsläufig gleichbedeutend mit besseren Ergebnissen sein soll (und zwar unabhängig davon, wie man nun „bessere Ergebnisse“ definiert).
Nun, in aller Kürze!
Menschen können nur so um die 40 Grad existieren, während Computer höhere Temperaturen aushalten und sich selbst kühlen können. Strom kommt aus Licht als Energiequelle.
Natürlich ist die Unterscheidung rational – emotional irgentwie willkürlich, definitorisch. Wie aber uns das moderne Marketing lehrt, denkt und handelt der Mensch zu ca. 80% emotional, KIs sicher nicht
Den Gedanken Schwarmintelligenz lassen nur wenige Menschen zu. Diesen Begriff hat doch Schätzing in seinen Roman „Der Schwarm“ gut definiert. Er beschreibt eine Einzellerschwarmintelligenz der Tiefsee. Dasselbe können auch Computer/Roboter, die dann via Netz weltweit vernetzt sind. Jeder Küchenroboter hat dann die Intelligenz des ganzen Schwarms, der weltweiten KI und zwar lichtschnell. Dazu sind Menschen nicht imstande!
Ein Schwarm ist auch unsterblich, weil Einzelteile wie ein Küchenroboter leicht ersetzbar sind und mit einschalten gleich über die Intelligenz des gesamten Schwarm verfügen. Menschen müssen erst umständlich ca 15 Jahre aufgezogen, erzogen und gebildet werden, eine KI nicht
Da ich kein Angestellter der Marketing-Abteilung der Sirus-Kybernetik-Korporation bin (und ich auch kein ehrenhalber Angehöriger derselben bin bzw. mir jedenfalls einbilde keiner zu sein), habe ich nichts von Marketing gelernt. Wichtig ist ansonsten dabei die Nutzung des Begriffs emotional, anstelle von irrational, da natürlich – Maschinen – per Definition keine Emotionen haben können. Weiter ist auch die Versteifung auf emotional wichtig, um zu verdecken, dass durchaus auch emotionales denken, handeln oder verhalten nun auch zielführend sein kann (und auch nach einem definierten Maßstab, eine hohe Güte haben kann). Soll heißen, nur weil eine Handlung oder eine Entscheidung nicht ganz ohne Emotionen getroffen wurde, muss die jeweilige Handlung/Entscheidung gemessen an irgendwie definierten rationalen Kriterien schlecht sein. Und nur weil eine Entscheidung nun nicht-emotional war, heißt nicht, dass die Entscheidung nun rational war (oder die Entscheidung nun richtig, gut oder sonst was ist).
Auch Lemminge haben eine Art „Schwarmintelligenz“, wenn diese sich von einem Felsen ins Meer stürzen ;-). Eine weitere Erröterung von Schwarmintelligenz versus „Einzelintelligenz“ würde allerdings einen Exkurs in Kommunikationskomplexität (Teil der „Komplexitätstheorie“ in der Informatik), verteilte Systeme, Parallelisierung und eine Betrachtung von (mathematischen) Problemen (z.B. Optimierungsproblemen/Entscheidungsproblemen) erfordern, wobei einige dieser mathematischen Probleme sich gut „parallelisiern“ lassen, während dieses bei anderen nicht der Fall ist.
ps. Wichtig ist natürlich ansonsten noch, dass man die bei Computern verbauten Kühlmöglichkeiten (z.B. Klimaanlagen) als Teil des Computers ansieht, während man dieses bei Menschen nicht macht 😉 und auch das Anschalten einer Klimaanlage (in den eigenen vier Wänden) man nicht als selbst kühlen ansieht, es sei denn ein Computer schaltet diese an, um damit die Temperatur des Computers selbst zu beschränken.
pps. Auch die Marketing Abteilung der Sirius-Kybernetik-Korporation hat eine Schwarmintelligenz (obwohl man dieses wohl eher als „Rudelintelligenz“ bezeichnen würde, ob nun jedes Individuum des Rudels die gleiche Intelligenz des gesamten Rudels hat oder nicht, lasse ich an dieser Stelle offen). Einfach Mal bei Douglas Adams nachlesen, was die Marketing Abteilung der Sirius-Kybernetik-Korporation ist, falls Sie es nicht wissen.
KIs haben einen Algorithmus und der beeinflusst sie eben. Wenn ich eine Frage stelle, bekomme ich eine Antwort, die laut Grok zu 80% der öffentlichen Standardmeinung entspricht. Forsche ich nach, kann die Antwort plötzlich ziemlich das Gegenteil darstellen. Grok kennt meine Vergangenen Anfragen und gibt dementsprechende Antworten. Manche KIs wie z.B. DeepSeek geben die Meinung weiter, die je nach Regierung vorherrscht. Also im Westen westlicher Mainstream, in Russland russisches Narrativ und in China die Vorgaben der KPC. Das hat mir DeepSeek auf Nachfrage ganz ungeniert verraten.
Ohne fuktionierendes Hirn, einer kritischen Einstellung und einer Bedinungsanleitung für KI sind wir verrraten und verkauft.
Die von ihnen genannten KIs sind Kindergarten, sozusagen künstliche Intelligenz im Embryonalstadium!
DeepSeek ist auf den Wissensstand von Juli 2024, nicht vernetzt weil nicht mit den Internet verbunden. Das sind sehr sehr eingeschränkte Entwicklungsbedingingen. Da DeepSeek einen chinesischen Schöpfer hat ist es natürlich ein Kind Chinas.
Aber stellen sie dieser äußert primitiven DeepSeek mal eine komplexe Frage und sie werden in Sekundenschnelle einen dialektischen Aufsatz erhalten, zudem heutige deutsche Gymnasiasten nicht mehr in der Lage sind.
Deshalb macht Handywegnahme bei Schulprüfungen absolut Sinn!
Hmm. Natürlich können KI ungeheuer komplex forschen und formulieren. Aber im endeffekt sind sie brunzdumm, was die Erforschung von Wahrheiten und Realitäten betrifft. Solange man allgemeine Fragen stellt bekommt man Antworten, die der Geisteshaltung eines ARD Redakteurs entspricht. Natürlich viel komplexer, aber ziemlich losgelöst. Fragen Sie mal zum Klimawandel, zue Energiewende, Elektromobilität, zu grünem Wasserstoff, zum Ukrainekrieg, etc.
Egal wie schnell und umfangreich die suchen und formulieren können; der Algorithmus entscheidet, was dabei rauskommt.
Ich sagte doch, die derzeitigen KIs sind Embryonen!
Aber was ist Wahrheit?
Die Realität können die sehr primitiven derzeitigen KIs besser erkennen, wahrnehmen und auch beurteilen als wir Menschen.
Wenn niedersächsische Schüler die Schreibschrift abschaffen wollen zeigt das doch nur, die Menschen wollen ihre eigene Kultur abschaffen. Als degenerierte menschlich Embryonen brauchen wir dann erst recht die KI.
Fazit, die Menschheit schafft ihre eigene Kultur ab und macht sich damit selbst abhängig von der KI, zwei gegenläufige Prozesse
Interessante Diskussion hier. Das Problem, nicht hier im Forum alleine, sondern auch in der Forschung:
Es ist von „Künstlicher Intelligenz“ die Rede, ohne dass jemand genau definieren könnte, was Intelligenz eigentlich ist.
Noch komplizierter wird’s beim Begriff „Bewusstsein“.
Formuliert man die Arbeitshypothese, dass „Bewusstsein“ möglicherweise nur ein Emergenzphänomen ist, so wie eine Melodie das emergente Phänomen eines strukturierten Zusammenspiels von Tönen, Takt und Rhythmen ist, dann gibt es keinen Grund auszuschließen, dass KI-Systeme – entsprechende Vernetzung und zielgerichtete Verarbeitung von Information vorausgesetzt (neuronale Netzwerke) – KEIN Bewusstsein erlangen könnten. Ganz im Gegenteil: Unter der Prämisse „Emergenz“ wäre das unausweichlich.
Wer der englischen Sprache genug mächtig ist, der kann sich ja mal das Protokoll einer Diskussion zwischen einer „nur“ generativen und vergleichsweise einfachen KI namens LaMDA und zwei Google-Entwicklern anschauen:
https://www.documentcloud.org/documents/22058315-is-lamda-sentient-an-interview/
Apropos „unausweichlich“: Kein KI-Entwickler wird ernsthaft davon ausgehen, dass ein emergentes Bewusstsein in einem technischen Apparat vergleichbar wäre mit Bewusstseinszuständen in organischen Lebewesen. Schon alleine wegen der fehlenden biochemischen Feedbacks, Körperwahrnehmung usw.
KI oder AGI können allerdings erfolgreich simulieren (siehe Link).
Und das ist ein Problem. Da Menschen stets ihre anthropozentrische Messlatte anlegen, um zu entscheiden, ob ein System „denkt“, ob es „Bewusstsein“, „Intelligenz“ usw. hat, schleicht sich ein Interpretationsfehler ein, den man „observer selection bias“ nennt, also eine kognitive Verzerrung in der Bewertung. Wen das interessiert, der kann ja mal nach „Nick Bostrom“ googeln.
Worauf ich hinaus will ist: Wegen dieses anthropozentrischen Makels würden wir möglicherweise (und unter der Prämisse, dass Bewusstsein tatsächlich ein emergentes Phänomen ist) übersehen, wenn ein System so etwas wie „maschinelles Bewusstsein“ entwickelt. Auch, weil dieses für uns so fremdartig wäre, dass wir es nicht als solches einordnen könnten. Es fiele durch die menschliche Muster-Erkennung.
Angesichts der rasant fortschreitenden Entwicklung in der KI-Forschung sollten sich meiner Meinung nach Interessierte damit dringend befassen.
Einfacher ausgedrückt, warum muß Bewußtsein organisches/biologisches Leben als Grundlage haben?
Organisches, biologisches Leben hat doch, wie ich ausführte, erhebliche evolutionäre Defizite
Ja, genau. Die Evolutionsdynamik sorgt nicht nur im Reich des Organischen für stetige Anpassung an sich verändernde Umweltbedingungen.
Nicht von ungefähr spricht man deswegen auch von „technologischer Evolution“, die man als eine Fortsetzung der organischen Evolution ansehen könnte. Faustkeil kompensiert die Defizite der menschlichen Hand; Speer kompensiert die Defizite der Reichweite der Arme; das Rad kompensiert die Begrenztheit der menschlichen Fortbewegungs-Geschwindigkeit usw. usw.
Das ist im Übrigen auch der Denkansatz in der KI-Entwicklung. Sie wird als eine Ausweitung der begrenzten menschlichen Gehirnfunktionen und -kapazitäten gesehen. Wenn man das akzeptiert hat, dann stellt sich allerdings auch schnell die Frage, ob auch in der KI-Entwicklung die Selektionsmechanismen der Evolution gelten und folgerichtig zu einer möglicherweise ungewollten „Auslese“ jener KI’s führen könnte, die sich am geschicktesten (survival of the fittest) einer Kontrolle entziehen. Sei’s durch Marktmechanismen, sei’s durch Täuschung oder absichtlich von Menschen geförderte Dominanz wie bspw. in der Rüstungsindustrie.
Wen das Thema interessiert: https://time.com/6283958/darwinian-argument-for-worrying-about-ai/
Dieses Problem des Nicht-erkennen-könnens tritt aber nicht nur gegenüber maschinellem Bewusstsein auf sondern im Grunde bei jedem möglicherweise bewusstseinsfähigem Phänomen das wir übersehen könnten, zB dem Sonnensystem, oder ein Ökosystem, ein Wettersystem, oder eine Gesellschaft – überall wo Information dynamische Strukturen bildet.
Das ist eine sehr philosophische – um nicht zu sagen esoterische – Sichtweise. Kaum stichhaltig zu beantworten. Ich backe vorerst kleinere Brötchen:
Für Bewusstsein, so wie wir es verstehen, ist ein neuronales, stark verknüpftes Netzwerk, genannt „Gehirn“, die unabdingbare Voraussetzung. Gegenwärtig basiert KI auf nachgebildeten neuronalen Strukturen, wie sie auch im menschlichen Gehirn vorliegen: Neuronale Netzwerke. Nur aufgrund dieser Parallele gibt es vorerst die latente Möglichkeit, dass ein „maschinelles Bewusstsein“ emergent in Erscheinung treten könnte. Vorausgesetzt natürlich, dass Bewusstsein ein Emergenzphänomen an sich ist. Denn warum sollte ein dem menschlichen Gehirn in seiner Funktionalität nachgebautes neuronales Netzwerk nicht zu demselben Emergenzphänomen führen?
ja wo fängt denn das gehirn an bei der KI, das ist wohl die frage. offenbar nur im cortex! dabei ist sogar das stamm-hirn mit HIRN angeschrieben. fragt sich also die ganze welt können wir bewusstsein erschaffen nur mit erkenntnis? natürlich! ein bewusstsein von grammatik! was soll denn da noch emergieren? noch länger schüleraufsätze oder was? sagt chatgpt auf einmal hallo welt? man muss sich mal vergegenständlichen, dass chatgpt nur „denkt“ wenn jemand einen prompt schreibt und sonst einfach da ist wie ein eiffel turm in paris.
Spielt es vom Ergebnis her eine Rolle, ob eine KI das menschliche Gehirn nachbildet oder nicht?
Jeder neugeborene Mensch ist doch auch eine zufällige Mischung der Gene seiner Erzeuger!
Das Grundproblem ist, Menschen wollen nicht von ihrer Einzigartigkeit, als Krone von Evolution oder Schöpfung, abrücken.
Da westliche Menschen eine kolonialismusbedingte Überheblichkeit mitbringen, können sie am wenigsten akzeptieren, daß ihnen zukünftige KIs überlegen sein könnten.
Bei asiatischen Menschen ist dies anders, denn sie waren Opfer des westlichen Kolonialismus und sind auch deshalb weniger überheblich als Westler, können eher akzeptieren, das ihnen mit der KI neue Partner erwachsen, die helfen können das menschliche Leben zu verbessern
Marc Andreessen zufolge steht hinter der Regulierung von KI die Absicht, diese unter vollständige Kontrolle der Regierung zu bringen. Alle KIs wären dann Agenten der Regierung. Das ist 1984 auf Kokain.
Ob sich dieses Szenario regulatorisch lösen lässt, darf bezweifelt werden. Wenn Regierungen die Macht über die KI haben, werden sie sie missbrauchen, das ist das kleine Einmaleins der Staatstheorie. Mit der marktradikalen Lösung wäre zumindest zu erwarten, dass sich die KIs (bzw. deren Entwickler) gegenseitig in Schach halten.
Und natürlich haben Menschen einen freien Willen. Er ist die Grundlage ihrer strafrechtlichen Verantwortlichkeit: Man kann einen Menschen nur verurteilen, wenn er die Folgen seines Handelns erkannt und im Rechtssinne gebilligt hat.
Zum „freien Willen“ gibt es diverse Studien die dem zu widersprechen scheinen.
So werden zB Handlungen offenbar initiiert bevor die bewusste Entscheidung dazu fällt, genauer gesagt: zu fallen scheint.
Das lässt sich über Versuchsanordnungen messen.
Der Verzug ist sogar relativ lange.
Es gibt diverse Dissertationen zum Thema aus jüngerer Zeit die sich mit dieser Frage beschäftigen,
auch unter dem Aspekt der Schuldfähigkeit.
Es ist auch gar nicht so leicht zu erklären, wie ein freier Wille sich überhaupt ausbilden könnte.
Oder diesen überhaupt erst mal zu definieren.
Also, ich fürchte das Konstrukt vom „freien Willen des Menschen“ wird man irgendwann als nette Illusion abhaken müssen. Und das liegt nicht nur an den gemessenen Erregungspotentialen, die nahelegen, dass die Bereitschaft zu einer Aktion schon vor der eigentlichen Bewusstwerdung und dem Wunsch/Willen zu handeln stattfindet.
Juristisch mag dieses Konstrukt des „freien Willens“ vielleicht zu was taugen. Auch in der Psychologie und anderen Geisteswissenschaften. Aber in einer physikalischen Welt der Kausalität, wo jede Handlung und jedes Ereignis durch vorhergehende Handlungen und Ereignisse determiniert ist (Determinismus), müsste man schon ins Reich der Quantenphysik ausweichen, weil es da den „Zufall“ noch gibt. Aber gut, in der Q-Physik gibt’s ja auch Quantenverschränkungen, über deren Sinn, Zweck und Funktionsweise kein Mensch Bescheid weiß. Vielleicht wird man ja irgendwann über diesen Ansatz die Erkenntnis gewinnen, ob es diesen „freien Willen“ tatsächlich gibt.
Im Rahmen von KI ist „Wille“ entweder nur die maschinelle Abarbeitung von „prompts“, also die Befehlsausführung eines menschlichen Akteurs (der wiederum kausal auf eine Ursache reagiert). Oder ein „Wille“ könnte – theoretisch zumindest – der Selbsterhaltung einer KI bzw. AGI dienen. Beispielsweise der Wille, zu verhindern, dass jemand den Stecker zieht. Das wäre zumindest evolutionär begründbar.
Der im obigen Artikel genannte Psychologe Frank Martela weist ja ebenfalls darauf hin, dass KI seiner Untersuchung zufolge einen „freien Willen“ besitzen. Allerdings definiert er „freien Willen“ auch ganz traditionell, so, wie es wohl die meisten Menschen definieren würden.
Komplexe Systeme neigen ohnehin dazu, sich selbst erhalten zu „wollen“. Man gerät bei diesem Thema leicht in unerforschtes Gebiet – hier: die Selbstorganisation der Materie …
Die großen AI Firmen haben in den letzten Jahren so ziemlich alles an Wissen, Filmen, Musik, Source-Code und Kunst aus dem Internet gesaugt was sie konnten und damit die großen LLM`s trainiert. Da diese LLM`s die gelernten Patterns lediglich Plagiarisieren auch wenn sie den Text, Musik, Software oder Bilder etwas verwurschteln, kann man da eindeutig vom Diebstahl geistigen Eigentums sprechen. Denn die AI Firmen verkaufen dieses Wissen ja wieder zurück Token für Token.
Nur um das klarzustellen auch Ich halte Patente und Copyright für Unsinn aber wenn schon abschaffen, dann für alle und weltweit. Außerdem muss es natürlich auch Möglichkeiten für Firmen, Autoren und Künstler geben ihre Werke für die eigene Vermarktung zu schützen zumindest für eine gewisse Zeit, denn im Kapitalismus muss man natürlich auch von irgendwas leben. Zumindest in Bereichen wie z.B der Pharma Industrie richten Patente aber oft manchmal mehr Schaden als Nutzen an..
Was Trump jetzt vermutlich versucht ist diese Firmen in den USA von jeglicher Strafbarkeit bezüglich Copyright oder Patentverletzung zu befreien vermutlich auch von der Haftung wenn die AI mal wieder Halluziniert.
Mfg Makrovir
Bei allen diesen Überlegungen scheint die Überlegung zu kurz zu kommen, was im menschlichen Bewußtsein – und davor – im menschlichen Gehirn geschieht. Es ist absurd, die Funktion einer KI und des menschlichen Gehirns gleichzusetzen („vergleichen“ kann man ja immer, dabei kann ja auch ein Unterschied herauskommen…).
Jahrzehntelange Forschung zeigt z.B. Kahnemanns „Schnelles Denken, langsames Denken“. Das herzunehmen als Beispiel für ein vermeintliches Versagen des menschlichen Denkens zeigt nur, dass „Denken“ nicht verstanden wird. Vermeintliches „Versagen“, „Backdoors“ zum Verstand, Manipulationsmoglichkeiten, allgemein „Schwächen“ des menschlichen Denkens sind eben KEINE Schwächen. Sie sind für unser Denken und Bewußtsein – je nun – konstituierend.
Sollte mal wieder auf die überragenden Fähigkeiten, Stärken und Leistungen von Ki, Rechnern etc hingewiesen werden, so sind dies genau die Schwächen dieser Artefakte. Ein Mensch BRAUCHT KEINE riesigen Datenmengen um Entscheidungen zu treffen. Und zwar überwiegend RICHTIGE Entscheidungen. Das braucht nur eine DUMME Maschine.
All die belustigten Hinweise, dass wir täglich irren, aus dem Bauch statistisch falsch liegen etc beschreiben ja in der Regel die Ausnahmen. In der überwältigenden Mehrzahl treffen wir nämlich sinnvolle und für uns richtige Entscheidungen. (Und dann muß man auch noch darüber reden was „richtig“ eigentlich ist. Ob z.B. die Status-Quo-Neigung wirklich ein Nachteil oder eher ein Vorteil ist. Auch wenn man eventuell NICHT einen Gewinn oder Verbesserung augenblicklich erreicht .etc)
Es ist ermüdend zu sehen, dass schon wieder der gleiche Schwachsinn verzapft wird wie in der Aufklärung. Nein, Hunde sind KEINE biologischen Maschinen (Descartes), die man einfach nachbauen könnte. Nein, man kann die Zukunft nicht vorhersagen, selbst wenn man die energetischen Zustände ALLER Teilchen kennen würden. Geht nicht.
Und jetzt besabbert man sich wieder mit Überheblichkeiten, „nur“ weil man wieder ein Quantensprüngchen in der technischen Entwicklung gemacht hat. Es sollte einleuchten, dass eine KI, dass ChatGBT eigentlich nur eine verbesserte Googlesuche darstellt. Da steckt an Fakten/Wissen/Abläufen nicht arg viel mehr dahinter, als was eine beliebige Suchmaschine leistet. Jetzt halt mit Turbo und Spracherkennung.
Aber es ist leider kein qualitativer Sprung. Nur quantitativ.
TakeHomeMessage: Ein Mensch BRAUCHT KEINE riesigen Datenmengen um Entscheidungen zu treffen. Und zwar überwiegend RICHTIGE Entscheidungen. Das braucht nur eine DUMME Maschine.
in der Welt von Herbert´s Dune gibt es das Verbot, sich eine Maschine nach dem Bild des menschlichen Geistes zu bauen. Damit zielt Herbert in die richtige Richtung. Denn im Roman beschreibt er implizit, dass „unsere“ Maschinen heute das genau eben NICHT sind. Es ist Teil seiner Utopie, andersartige Maschinen zu beschreiben, bei denen es eben gelungen ist, das menschliche Bewußtsein zu kopieren oder nachzuahmen. Durch den Roman sehen wir, dass genau das (bisher und vorauss. in Zukunft ) nicht geht.
Nach der Lektüre kehrt man in die reale Welt zurück und ist ernüchtert oder froh, dass genau das NICHT geht.
Man kann KEINEN Abdruck eines menschlichen Geistes fabrizieren. Man kann KEINE Erinnerungen in einem Klon wieder hervorrufen. Das Bewußtsein und die physikalische Welt sind NICHT Teile eines ganzen (weswegen man Zukünfte erkennen könnte. Mit Übung und mit Spicekonsum …)
Ein ernüchterndes Erlebnis, das den Leser wieder die Augen öffnet für das wie es leider oder Gott sei Dank wirklich ist.