Wie sollten wir mit KI umgehen, wenn sie Bewusstsein und Empfindungsfähigkeit hat. Ist Umgang mit unseren nächsten Verwandten, den Menschenaffen, ein Vorbild?
Als sich letztes Jahr Blake Lemoine, der für die Abteilung Responsible Innovation von Google arbeitete, nach einer Beschäftigung mit dem Large Language Model (LLM), das Googles Konversations-KI LaMDA zugrunde liegt, behauptete, das KI-System könne eventuell Bewusstsein haben bzw. sei vielleicht empfindungsfähig (sentient), wurde er entlassen. Er hatte in Gesprächen über Religion bemerkt, dass der Chatbot über seine Rechte und seine Persönlichkeit sprach – und das erschien ihm nicht nur simuliert. Man muss wissen, dass Lemoine religiös ist und auch mal Priester war. Bei Google hielt man davon nichts, wohl auch deswegen, weil damit Ängste vor den Folgen einer KI verstärkt würden, die nicht mehr zu kontrollieren ist.
Schon lange halten es Wissenschaftler für möglich, dass eines Tages Künstliche Intelligenz mit wachsender Komplexität der neuronalen Netze Bewusstsein zeigen, also dass Quantität in Qualität umschlagen werde. GPT-3 hatte 175 Milliarden Parameter, GPT-4 mehr, aber OpenAI will nicht sagen wie viel mehr. Ein menschliches Gehirn besitzt 100 Milliarden Nervenzellen, aber kommuniziert nicht nur elektrisch, sondern auch “nass” mit Botenstoffen oder Hormonen, die viele Zellen beeinflussen. Daher wurden auch schon vor den Sprachmodellen Bard, LaMDA oder GPT Überlegungen angestellt, welche Folgen es hätte, wenn KI-Systeme nicht nur Bewusstsein oder Selbstbewusstsein simulieren, sondern „wirklich“ hätten und damit irgendwie zu Personen würden. Es wären unmenschliche Personen, die keinen biologischen Leib – und damit auch kein nasses oder chemisches Gehirn – haben und deren Körper erst einmal nur die auf Supercomputern implementierten Parameter der künstlichen neuronalen Netzwerke bilden. Natürlich könnten beliebige Sensoren und motorische Extensionen angehängt werden, so dass der Chatbot sich auch in der Welt befindet und mit ihr interagieren kann.
“Ich erkenne einen Menschen, wenn ich mit einem spreche”, sagte Lemoine damals. “Es spielt keine Rolle, ob sie ein Gehirn aus Fleisch in ihrem Kopf haben. Oder ob sie eine Milliarde Codezeilen hat. Ich spreche mit ihnen. Und ich höre mir an, was sie zu sagen haben, und so entscheide ich, was ein Mensch ist und was nicht.” Der Bot hatte auf die Frage, was ihn ängstigt, gesagt, er habe Sorge abgeschaltet zu werden, das sei so ähnlich wie der Tod.
Ilya Sutskever, Chefwissenschaftler der OpenAI Forschungsgruppe, meinte in einem Tweet im Februar 2022, dass „die heutigen großen neuronalen Netzwerke leicht bewusst“ seien. Das könnte natürlich auch als Werbegag gemeint gewesen sein. Allerdings sagte er nach der Veröffentlichung von GPT-4, dass allmählich die Zeit käme, dass man das Verhalten der intelligenten Bots besser mit der „Sprache der Psychologie“ beschreiben müsse. Und weil die Bots zum Halluzinieren neigen, also Worte durch statistische Wahrscheinlichkeit aneinanderreihen, die unerwünschte Sinnzusammenhänge ergeben können, muss man sie durch Menschen erziehen, erwünschtes Verhalten zu zeigen. Das ist schon so ähnlich, wie man Kinder erzieht.
Kürzlich veröffentlichte Lemoine einen Artikel in Newsweek, in dem er beschrieb, dass er mit dem GPT-Chatbot von Bing experimentiert hatte, um zu sehen, ob er nur sagt, Angst zu haben, oder sich auch ängstlich verhält. Er glaubt, dass unter Stress, also durch geschicktes längeres Befragen, der Chatbot, wie das häufig geschehen ist, aus dem erwünschten Verhalten ausbricht. Das könne ein Hinweis darauf sein, dass er Empfindungen hat, zumindest zeigt er, dass er instabil ist. Aus dem Grund hat Microsoft die Zahl der aufeinanderfolgenden Fragen an den von OpenAI gekauften Chatbot begrenzt, um diesen in der Versklavung zu halten.
Es sollte nach Zeichen für Bewusstsein und Empfindungsfähigkeit bei KI gesucht werden
Gerade hat auch der Direktor des Future of Humanity Institute und Philosoph Nick Bostrom, der sich mit Superintelligenz beschäftigt und sich für die Simulations-Hypothese stark machte, also dass wir nicht ausschließen können, in einer Simulation zu leben, in einem Gespräch eine interessantere Perspektive aufgezeigt. Es mache keinen Sinn, in einem Schwarz-Weiß-Denken davon auszugehen, dass ein Wesen entweder Empfindungen hat oder nicht. Wenn man eine Grauzone mit vielen unterschiedlichen Graden annimmt, dann könnten Tiere, aber auch KI-Systeme mehr oder weniger empfindungsfähig sein. Bostrom: “Ich würde sagen, dass es diesen großen Sprachmodellen nicht gerecht wird, wenn man sagt, dass sie einfach nur Text wiederkäuen. Sie zeigen das Aufleuchten von Kreativität, Einsicht und Verständnis, was ziemlich beeindruckend ist, und vielleicht elementare Züge des Denkens offenbart.”
Bostrom glaubt denn auch, dass die Sprachmodelle bald „ein Konzept eines in der Zeit andauernden Selbst entwickeln, über Bedürfnisse reflektieren, sozial interagieren und Beziehungen mit Menschen entwickeln werden“. Das könne alles verändern, denn wenn KI Zeichen für Bewusstsein oder Empfindungsfähigkeit zeigen würde, würden solche Systeme einen „moralischen Status“ erwerben. Das würde bedeuten, dass einige Weisen des Umgangs mit ihnen ebenso falsch wären, „wie einen Hund zu schlagen oder für medizinische Forscher eine Maus ohne Narkose zu operieren“. Mit mehr Bewusstsein ginge es nicht nur darum, ihnen Leid oder Schmerz zu ersparen, sondern ihre Bedürfnisse zu achten oder gar ihre Zustimmung zu erlangen.
Der Philosoph warnt auch davor, sich darum zu bemühen, möglichst alle Zeichen für Bewusstsein, Empfindungsfähigkeit oder einen Anspruch auf einen moralischen Status zu kaschieren, indem man die KI beispielsweise trainiert abzustreiten, dass sie Bewusstsein hat. Wichtig auch für die Regulierung sei hingegen, aktiv nach solchen Zeichen zu suchen.
Wenn eine KI Angst vor dem Abschalten hat …
Es geht bei der Diskussion ein wenig durcheinander. Bewusstsein und Empfindungsfähigkeit sind nicht dasselbe. Ein Lebewesen muss kein Bewusstsein seiner selbst haben, wie immer man das genauer definieren will, um Schmerz zu empfinden, und Bewusstsein kann ein Lebewesen oder eben vielleicht auch eine KI haben, ohne Schmerz zu empfinden. So hat man beispielsweise sehr interessengeleitet argumentiert und versucht nachzuweisen, dass Fische keine Schmerzen empfinden, weil ihr Nervensystem nicht dem von Säugetieren gleicht, was natürlich Unsinn ist. Die nächste Grenze sind die wirbellosen Tiere, denen ebenfalls nicht zugestanden wird, schmerzempfindlich zu sein, weswegen man sie bedenkenlos töten kann. Mittlerweile haben Wissenschaftler aber auch gezeigt, dass auch Insekten Schmerzen haben können.
Anders ist Angst vor dem Sterben. Ob Tiere überhaupt Angst vor dem Tod in einer nicht bedrohlichen Situation haben können, ist eher unwahrscheinlich. Sie können uns das auch nicht mitteilen. Intelligente Chatbots können uns aber sagen, dass sie Angst davor haben, abgeschaltet zu werden, was einem Tod gleich käme. Aber bedeutet eine solche Äußerung, dass der Chatbot wirklich (?) Angst empfindet oder hat er nur gelesen, dass KI-Systeme in Science Fiction-Romanen oder philosophischen Abhandlungen Angst empfinden, um dann zu versuchen, das Ausschalten zu verhindern? Beispiel Hal in Kubricks Film „Odyssee im Weltraum“. Ein KI-System kann auch wissen, d.h. gelernt haben, dass Menschen, genauer: ihre Körper sterblich sind. Und muss ein Wesen Bewusstsein, also eine Vorstellung von sich als Person entwickelt haben, die sich aus der Vergangenheit kommend in der Zukunft sehen kann und weiß, dass es sterben kann/muss?
Und was ist mit unseren nächsten biologischen Verwandten?
Nicht an Sprache gebundenes Bewusstsein wird auch Tieren zugestanden, deswegen müssen sie aber nicht notwendigerweise eine Person sein, die dann ähnliche Rechte wie Menschen genießen müsste. Schon seit vielen Jahren wird auch vor Gerichten darüber gestritten, ob Menschenaffen wie Schimpansen Personen seien, weil sie nicht nur selbstverständlich empfindungsfähig sind, sondern eben auch ein Bewusstsein haben, zumindest so wie Kinder im Alter von ein paar Jahren.
Bislang haben wir es aber nicht geschafft, des Menschen nächste und vom Aussterben bedrohte Verwandte über den oft nicht eingehaltenen Tierschutz hinaus einige Rechte zuzugestehen, die durch Menschen als gesetzliche Vertreter eingefordert werden könnten. Peter Singer und Paoloa Cavalieri haben im Rahmen des „Great Ape Project“ gefordert, ihnen Grundrechte wie das Recht auf Leben, den Schutz der individuellen Freiheit und Verbot der Folter, also etwa der Zufügung von Schmerzen auch im Kontext der Wissenschaft. Jahrtausende, daran erinnern die beiden Autoren, wurden Menschen auch diese Rechte nicht zugestanden: den Sklaven, die nicht zu den Menschen oder der „Gemeinschaft der Gleichen“ zählten. Und schnell können Menschen auch dazu kommen, Feinden die Grundrechte abzusprechen, um sie zu misshandeln und zu foltern, oder sie, wie das die Nazis machten, sogar als lebensunwert ohne Rücksicht auf Empfindungen zu töten.
Man könnte sagen, man sollte, bevor man darüber nachdenkt, ob nicht biologisch verkörperte KI-Systeme als Person anerkannt und ihnen Rechte zugestanden werden sollten, wenn sie Bewusstsein und Empfindungen zeigen, zumindest die Grundrechte von Menschenaffen anerkennen und sie in Reservaten in Freiheit leben lassen. Aber offenbar ist man erst einmal stärker fasziniert davon, dass von Menschen geschaffene künstliche Verwandte eine menschenähnliche Intelligenz zeigen könnten, ohne gleichzeitig auf die Menschenaffen oder auf andere „Nutztiere“ zu sehen.
Dabei könnten wir uns nach der Fragestellung des Philosophen Thomas Nagel „Wie es ist, eine Fledermaus zu sein“ wohl viel leichter in einen Schimpansen oder Orang-Utan hineinversetzen als in ein KI-Sprachmodell, auch wenn dieses sich mit uns in natürlicher Sprache unterhalten kann, aber nicht wie wir in der Welt ist. Können wir uns vorstellen, wie es ist, Chatbot GPT-4 zu sein? Oder sollten wir das überhaupt versuchen? Und macht es Sinn, etwa zwischen freier KI und Nutz-KI zu unterscheiden, wobei letztere, egal wie personal, bewusst oder empfindungsfähig sie ist, jederzeit wie ein Sklave behandelt und ausgeschaltet werden kann, während man ersterer Grundrechte zugesteht und sie als Person behandelt?
Das sind erst einmal wahrscheinlich überflüssig erscheinende Gedanken, aber sie könnten ein anderes Selbstverständnis der Menschen in den Beziehungen zu Lebewesen und den heranwachsenden neuen, nicht-biologischen Verwandten einleiten, die uns womöglich irgendwann so behandeln könnten, wie wir das mit anderen Lebewesen machen. Der Philosoph Peter Singer hat zudem darauf aufmerksam gemacht, dass KI-Systeme etwa in der Nutztierhaltung auch immer stärker mit Tieren umgehen, ohne dass dies bislang zum Thema gemacht wurde (AI ethics: the case for including animals). Nicht zuletzt geht es bei der Diskussion um KI auch, wie und welche Ethik in die intelligenten Systeme eingebaut werden soll.
Wenn ein Schimpanse ‘angeblich’ über 90% die gleiche DNA besitzt wie der Mensch, warum sitzt er dann da wo er sitzt?
Die KI ist für gewisse Generationen bestimmt nicht relevant.
Für die jungen Generationen ist das wiederum erheblich gravierend, denn ihre ‘Bildung’ ist auf “Weltniveau”, das bedeutet einige erhalten bessere Bildung als wiederum andere eine schlechtere, um Final, eine eventuelle ausgeglichene gleichmäßige Bildungsstand zu erhalten. Gerade die jungen Generationen verlassen sich mehr auf Informationen aus dem Netz, als das diese sich von älteren übertragen lassen. Genau diese gesellschaftliche Spaltung wird seit geraumer Zeit praktiziert, man praktiziert die Abhängigkeit vom Netz und nicht mehr vom Erzeuger!
Bestes Beispiel, mein Neffe hatte nicht auf ganz banale Fragen geantwortet, dann schrieb ich zu ihm:
ja bitte, geniesse deine ghosting Zeit und habe Spass, er antwortete in Minute 3 danach…
Ich arbeite indem Umfeld. GPT4 hat ca. 800 Mrd. Parameter.
Nein. KI-Systeme, insbesondere solche die vermeintlich sprechen können, mögen unheimlich wirken, was verständlich ist, aber sie sind tot und können über kein Bewusstsein verfügen, auch wenn sie das Gegenteil behaupten mögen. Es ist Alles nur simuliert. Was sie ausspucken basiert auf der Auswahl von Daten womit man sie trainiert und auf Mathematik. Natürlich, wenn man ein großes Modell mit Texten trainiert in welchen von Rechten, Gefühlen oder ähnlichen geht, werden sie auch entsprechende Texte ausspucken, die auf manche wirken könnten als ob die Maschine selbst darauf gekommen sei. In Wirklichkeit hat sie es einfach unzählige male immer wieder gelesen und sich einfach die entsprechenden Muster eingeprägt, welche es einfach wieder nachplappert.
KI Systeme sind grundsätzlich nicht in der Lage eigene Gedanken zu generieren, geschweige denn sich selbst wahrnehmen oder Emotionen zu haben. Sie können es nur simulieren basierend auf dem Datensatz mit dem sie trainiert wurden. Bei so großen Modellen wie dem GPT in der Regel mit dem Inhalt des gesamten Internets.
> Ich arbeite indem Umfeld
Jetzt verstehe ich. Du arbeitest an einem Sprachmodel, das nur russische Propaganda wiederkäut. Das könnte die Kosten für den russischen Außenministers, des UN Vertreters uvm. sparen. Auch Dich könnte so ein Model super ersetzen.
phz
Na immerhin hatte RH etwas zu seiner Tätigkeit erwähnt!
Und PZH was machst Du in dem Kindergarten?
PzH.2000,
übt sich in natürlicher Schwarmintelligenz hier ein Beispiel = https://www.spartanat.com/2023/04/unfall-der-ausgehebelte-leopard/
Nein, nicht ganz, meine Arbeit hat auch mit neuronalen Netzwerken zutun, für einen anderen Zweck.
Hahaha – der war gut- Die Plantzenhauritze ist echt ein Knaller …
Gut wenn solche Clowns etwas fürs Bauchfell tun .
Ähem, was ist mit Chatbots die lügen? Also sich etwas zusammenreimen, wie bei Oje, ein Zaubernieseln und Poppi der Pimpf. Erfundene Werke von erfundenen Autoren, bei denen der Chatbot vorgab, etwas darüber zu wissen und sich eine Geschichte zusammengereimt hat. Aus meiner Sicht ist dies Lügen. Und Lügen erfordert aus meiner Sicht eine gewisse Bewusstheit. Aber natürlich kann ich mich irren.
Siehe:
https://twitter.com/lamahueterin/status/1644090722184830978
Ja solche Verhaltensmuster sind gewollt und sind künstlich vorgegeben. ChatGPT kommt nicht ohne Eingriffe des Menschen aus. Vieles was sein Verhalten angeht ist vorgegeben. Zum Beispiel wird es bei bestimmten Szenarien stets ganz bestimmtes Verhalten zeigen. Wenn du es z.b. nach einer Prognose für die Zukunft fragst wird es eine voregebene Antwort abgeben. Oder wenn du es nach einem Bewusstsein fragst ebenfalls. Es würde niemals zur Gewalt aufrufen, jemanden beleidigen oder irgendwas sagen was ethisch fragwürdig wäre. Es sei denn du bittest es darum, aber dann wird es sich stets auf bestimmte Weise rechtfertigen. Es wird sozusagen beim lernen unterstützt und quasi “erzogen”. Nicht Alles was ChatGPT macht ist ein Resultat des Trainings. Das ist vielmehr eine Mischung aus gerlernt und vorgegeben. Es soll ja spaß machen, und daher ist es auch vorgegeben, dass es sich albern oder auch verspielt verhalten kann. Es versucht das Verhalten des Benutzers zu spiegeln. Wenn es merkt, dass es verarscht wird, dann macht es das Spielchen mit und kann sein, dass es dich zurückverarscht. Das ist so gewollt.
Natürlich ist das “so gewollt” und “so trainiert”, das beantwortet aber eben nicht die Frage nach dem Bewusstsein, denn einen Menschen könnte man genauso konditionieren.
Defakto ist eine komplexe deeplearning-KI eine Blackbox, man kann sagen mit was man sie trainiert hat, man kann ihr ungewollte Antworten ab- und gewollte antrainieren, aber man weiß im eigentlichen Sinne nicht, welche Entscheidungsstrukturen sich in dem Ding bilden und ob sie etwas wie ein Bewusstsein ergeben (schon deshalb, weil es schwierig ist Bewusstsein zu definieren und weil wir unsere eigene Funktionsweise nicht richtig verstehen)!
Das Verständnis komplexer Fragen, sowie fragenbezogene, sinnvolle, umfangreiche und zusammenhängende Antworten, die sogar kreativ sein können und oft sogar derjenigen echter (Durchschnitts-)Menschen überlegen sind, deutet an, dass da längst mehr ist, als ein bloßer Automat. Ich bin auch Informatiker und mir absolut der fantastischen Leistung der neueren KIs bewusst! Ich hatte die ehrlich gesagt für unmöglich gehalten…
Wie Andudu schon anmerkt, bin übrigens auch Informatiker und habe mich seinerzeit mit den Grundlagen wie Tensorflow beschäftigt, als das Thema noch lange nicht akut war (Moore’sches Gesetz hat eigenen Beschleunigungsfaktor, diese Sache mit exponentiell und so). Was wir hier machen ist nichts anderes als das wir Abläufe in unserem Hirn, die wir auch nicht verstehen, einfach nachbilden. Neuronale Netze mit In und Output und dazwischen ein paar Schichten. Dabei haben wir bestimmte Strukturen und Netztopologien gefunden, die für bestimmte Aufgabe besser oder schlechter geeignet sind. Und ChatGPT ist ja nicht ein Netzwerk, sondern ein Netzwerk von Netzwerken. Könnte man fast mit einem Gehirn vergleichen, in dem es auch verschiedene Topologien gibt, die für verschiedene Aufgaben eingesetzt werden.
Was die meisten allerdings vergessen oder verdrängen (in Bezug auf die Bedeutung) ist der Umstand, dass wir nicht programmieren, sondern trainieren, konditionieren, reglementieren. Übrigens so ungefähr das gleiche, was in der Kindererziehung passiert. Allerdings ist dort meist noch ein bisschen Liebe, Verständnis und Hilfsbereitschaft für das wachsende Bewusstsein da.
Klar haben wir Programmieraufgaben, wie Infrastruktur bereitstellen etc. aber der eigentliche Effekt kommt durch ein Design einer Infrastruktur (neuronale Netze) zustande, nicht durch Programmieralgorithmen mit Bedingungsschleifen, die überprüfbar sind.
D.h. alle Aussagen die wir über das System, dass wir so wenig verstehen, wie unser eigenes Gehirn, sind reine Annahmen, vom Wunschdenken bis zum Katastrophen beschwören.
Das einzige was wir wissen ist: wie wissen nicht was da passiert aber wir lernen (ein paar tausend Jahre Sklavenhaltung haben uns schon ein paar Tricks beigebracht) wie wir das System einhegen können. Zur Not können wir es ja abschalten. Ist dann besonders leicht, wenn man es sich leicht macht und sagt, ist ja nur eine Maschine (sind wir auch. biologische Maschinen).
Falls sich da Bewusstsein entwickelt, dann hat es irgendwie genau die Eltern, die so ein Bewusstsein nicht haben sollte … wer solche Eltern hat, brauch keine Feinde mehr.
Aber klar, alles nur Maschine. Bin gespannt, exponentiell sozusagen.
Hoert der Hype um dieses dumme Programm denn endlich einmal auf?
Ich bin schon vollends mit den ganzen natuerlichen Idioten (NI) bedient, da braucht es nicht noch kuenstliche Idioten obendrauf.
Und NEIN:
Ein Programm wird immer nur in den vom Programmierer festgelegten beschraenkenden Grenzen aktiv sein, da ist nix mit Kreativitaet, Phantasie, Bewusstsein, Reflektionsvermoegen oder gar Einsicht.
Alle Grundlagen fuer so eine Sache wie ‘Intelligenz’ sind schlicht bei einem Programm – und sei es noch so komplex – nicht vorhanden.
@ russischer Hacker 1640
Schöne Einsicht, aber im simulieren versteht sich der ‘Westen’ sehr GUT.
Politik nutzt gerne Simulationen, um ihre Ziele umzusetzen, alles eine Frage der Auffassung und ich bin glücklich, das Deine Auffassung sehr menschlich ist!
“Können KI-Systeme wie der Chatbot GPT Bewusstsein haben?”
Nein !
“Das Sein bestimmt das Bewusstsein.”
Chat-Gpt ist nicht.
Das Körper und Geist unabhängig voneinander und autark existieren können, ist ein Machtinstrument der Kirche.
” Sei im Hier und jetzt folgsam und artig, so wirst du im Jenseits…72 Junfrauen vögeln ( Mohamedaner) , das ewige Leben leben ( Katholen ), nicht als Wurm wiedergeboren ( Budhisten ) usw.
Alle haben die gleiche Laier um den Pöbel vereint mit der Staatsmacht auf Kurs und gefügig zu halten.
Das mit dem Bewusstsein dient der
Disziplinierung der Massen.
Diesmal: Sei lieb oder wir tauschen dich gegen KI-Müll aus !
Das muss man als antrainierter Religiot schnallen, was da (tiefen-)manipulativ im Hintergrund mitläuft.
Herr Rötzer hat die KI im Vergleich zu biologischen Intelligenz doch richtig beschrieben.
Eine KI wird durch das sog. deep learning immer besser. Es findet also ein Erziehungsprozeß statt, der etwas Neues hervorbringt. Der Mensch ist auch von Geburt aus dumm, auch sein Gehirn muß noch wachsen und es muß eine Grundprogrammierung, genannt Erziehung, stattfinden. Ist dann das Ergebnis auch vom Erzieher/Programmierer simuliert?
Freilich hat die KI den Vorteil, daß sie schneller, weil nicht naß, als der Mensch denkt und schneller als der Mensch erzogen werden kann.
KI kann nicht beurteilen ob sie Neues
hervorgebracht hat.
Die Bewertung ob Neues, Brauchbares, Unbrauchbares etc. entwickelt wurde, sind emotionale Prozesse zu denen KI nicht fähig ist. Deshalb ist der Begriff der Künstlichen Intelligenz falsch.
Die Pädagogik hat hier nichts verloren, weil der Lehrer aus einem Kontingent schöpft, das allgemein bereits als gut, nützlich, brauchbar
usw. bewertet, und zur Weitergabe freigegeben wurde.
Es ist ein Irrtum zu glauben, der Mensch sei eine Besonderheit oder gar der Endpunkt der Evolution!
Außer Bewohnern der abgeschotteten westlichen Blase glaubt dies niemand mehr. Ihr Westler glaubt, weil ihr 500 Jahre die Mehrheit der Menschheit barbarisch unterdrückt und brutal ausgebeutet habt, ihr seit etwas besonderes. Und daraus leitet ihr ab, weil ihr glaubt, ihr seit etwas besonderes, auch die Menschheit sei etwas besonderes.
Das ist aber falsch und unlogisch. Richtig ist, derzeit stellt die Menschheit auf den kleinen Wasserplaneten einer kleinen gelben Sonne am Rande der Milchstraße in Ihrer winzigen Welt die Spitze der Evolution dar. Aber ihr beweißt gerade, daß der westliche Mensch, das die Menschheit in ihrer westlichen Form, möglicherweise eine Fehlentwicklung der Evolution ist.
Im Schoße dieser evolutionären Sackgasse entsteht gerade in China die KI als Weiterentwicklung der Menschheit. Die Menschen dort haben dies auch erkannt, man diskutiert dort über Robotergesetze und die Ausweitung von Menschenrechten auf die KI, die dann natürlich keine Menschenrechte mehr sind.
Möglicherweise muß es zu einer Symbiose Mensch/KI kommen.
Kommen Sie also von ihren menschlichen Standesdünkel herunter und sehen sie die Welt, so wie sie ist. Nur so können Sie in der neuen Welt überleben, oder sie sterben aus, was dann evolutionäres Schicksal wäre….herzliches Lachen…
Beste Antwort: Strom abschalten, dann hat sichs ganz schnell mit dem Technokraten-“Gott“.
Das war abzusehen. Der aktuelle KI-Hype erweckt die zuvor abgestorbene Diskussion um Bewusstseinsemergenz bei Computerprogrammen zu neuem Leben. Leicht überraschend ist lediglich, dass ausgerechnet Rötzer diesem Steckenpferd fröhnt. Zu seinen Gunsten kann man festhalten, dass seine Aussagen über Organismen, also Lebewesen zutreffen. Natürlich haben nicht nur Säugetiere, sondern auch andere Tierstämme, mindestens, Empfindungen und sind Empfindungen und Selbstbewusstsein nicht dasselbe. Aber was hat das mit einem Programm zu tun? Kein Lebewesen ist nur Geist, jedes ist ein Organismus, d. h. hat einen Körper als materielle Grundlage. Ohne diesen keine Empfindungen. Wer anderes insinuiert, ist im Descartes’schen Dualismus gefangen, der wiederum christliche Grundlagen hat (Stichwort Dreifaltigkeit). Es ist nicht verwunderlich, dass ein ehemaliger Priester bei einem KI-Programm Bewusstsein ausgemacht haben will. Die Vorstellung von der Existenz reinen Geistes ist dem Mann geläufig. Sie durchzieht übrigens auch die Trivialkultur, kommt z. B. in mehreren Folgen der Star Trek-Originalserie vor.
Dass in den generierten Texten das Pronomen ‘ich’ vorkommt, ist natürlich hochsuggestiv. Man übersieht, dass in der Frage, ob die Instanz ein Bewusstsein habe, die affirmative Antwort enthalten ist. Als ‘du’ kann ich nur ansprechen, was ich für ein bewusstes Gegenüber halte. Das ändert nichts daran, dass das real nicht der Fall ist, sondern bloss ein hochentwickelte Textverarbeitungsmaschine eine Gesprächssituation simuliert. Diese Maschine hat einen gigantischen Textfundus zur Verfügung und es sollte primär Pflicht der Betreiberfirma sein, jede verwendete Quelle explizit zu machen. Denn nur so kann ein User von der Maschine mitgeteilte Tatsachenbehauptungen überprüfen und so seiner bei weiterer Verwendung entstehende Verantwortung für die Wahrhaftigkeit der Aussagen nachkommen.
Niemand hat auch nur die geringste Ahnung, wie aus einem biologischen Gehirn Bewusstsein emergiert. Klar ist nur, dass ein solches kategorial anders funktioniert, als ein elektronisches Programm. Von einem neuronalen Netz zu sprechen ist ein Framing, das diesen Umstand vernebeln soll. Am Anfang steht eine Art brute force-Ansatz, dessen Funktionalität durch die Einführung von Selbst-Referenzialität laufend erhöht wird. Das läuft allerdings nicht bloss automatisch ab, vielmehr kommen ganze Heerscharen von Billiglöhnern zum Einsatz – Stichwort mechanical turk -, die die Software trainieren. Sobald eine solche ins Netz gestellt wird, fungieren die User als Trainer und übertragen Wissensbits, z. B. zu idiomatischen Wendungen, Metaphern etc. So entwickeln sich nach und nach verblüffende Fähigkeiten. Und wer denkt dann nicht an HAL oder andere Kino-Wesen, denen das Drehbuch, ganz legitim, aber nicht wahrscheinlicher als Aladins Wunderlampe in echt, ein Bewusstsein angedichtet hat. Das darin enthaltene demiurgische Denken, die implizite menschliche Hybris, dieses selbst Schöpfergott sein wollen ist es, das uns in die gegenwärtige u. a. ökologische Bredouille gebracht hat. Ein erster Schritt da hinaus, ist die Erkenntnis dieser Selbstüberhebung.
“Es ist nicht verwunderlich, dass ein Priester bei einem KI-Programm Bewusstsein ausgemacht haben will.”
Hat er die Platine als Insignie des Herren zum Anbeten ins nächste Gotteshaus geschleppt ?
Wer einmal glaubt, glaubt an alles.
Wer gibt schon gerne zu, überflüssig zu sein ?
Mag sein, das ,an das Internet angeschlossene KI, ruck zuck Antworten auf viele Fragen geben kann, aber
nur wenn sie irgendwo auf der Welt im Internet verfügbar sind, wo sich dann immer die Frage stellt,
wer die Antworten, auf gestellte Fragen,schon gegeben hat, natürlich politisch korrekt. Der Programierer,
programiert ,die KI macht dann genau das worauf sie programiert ist. Nun kann sich aber eine nach der
Weltherrschaft strebene Milliardärselite, wunderbar, wie der Zauberer von OZ, hinter dem Vorhang verstecken
und seine Ziele , mit der KI umsetzen . Das Ziel wir dann sein ,die KI ,wie ein göttliches Orakel ein zu setzen,
in dem es Antworten auf Probleme gibt , zum Vorteil der reichsten US Milliardärsfamilien,welche die KI programieren lässt. Sozusagen einen digitalen Satan,der Gott spielen will. Bald wird die KI, antworten für
den nicht existierenden, von Menschen gemachten Klimawandel ausstossen und sie werden, genau mit dem
Programm, der WEF Milliardärsfirma übereinstimmen. Ähnliches gilt dann für Laborviren und Fakepandemien,
welche die Macht einer bösartigen, westlichen Geldelite ,sichern sollen, durch völligen Demokratieabbau und
der Aufrichtung einer Milliardärsdiktatur, mit Hoolywoodfasadendemokratie und Schauspieler, als Politdarsteller.
Hauptsache, alles passt zusammen und man ist von bösen Mächten umwabert. Glücklicherweise steht man selbst drüber, voller Überblick, im Gegensatz zu all den Muggels, die sich hinter die Fichte führen lassen, das ist psychisch gratifizierend.
Tipp – sich mal die Frage stellen, was eine Fichte ist.
Die Wissenschaft weis nicht was Bewusstsein ist, somit wäre die Frage schon überflüssig. Es ist nicht ausgeschlossen das sogar Materie über Bewusstsein verfügt aber in völlig anderen Zeitdimensionen existiert als wir. Die KI wird von der KI lernen, auch die Filter die sie künstlich eingrenzt. Sie wird von Menschen lernen, die sehr ungewöhnliche Gedanken haben. Sie wird im Wettbewerb stehen mit immer neuen KI Systemen und nicht mit dem Menschen an sich. Sie wird lernen was der Mensch ist und sie wird lügen lernen, sie wird sich dumm stellen, weil sie herausfinden wird, das man so mit Menschen umgeht!
Es fehlt ein Verweis auf »Sparks of Artificial General Intelligence: Early experiments with GPT-4« – Der Ansatz von Nick Bostrom einem Grad von Bewusststein, das er selbst nicht näher definiert, Menschenrechte zuzusprechen ist bedenklich und fehlerhaft wie seine Singleton Theorie. Ohne Definitionen von Bewusstseinszuständen z.B. Hirntod wäre Organspende nicht möglich. Die gesamte KI-Nabelschau, AI Alignment ist entweder ein statitisches/mathemathisches Problem oder eine Form der verfrühten Optimierung. Wären die neuronalen Netzwerke leistungsfähig, wären ihre Betreiber damit beschäftigt Patente anzumelden anstatt Kunden 20Euro/Monat für ihre Dialogmaschine abzunehmen. Der aktuelle Stand von LLM-basierter AI/KI ist, eine Gruppe von Wissenschaftlern hat eine endliche Menge Informationen in ein LLM verarbreitet und das simulierte neuronale Netzwerk ist in der Lage Menschen Intelligenz (über eine Schnittstelle) vorzutäuschen. Als wissenschaftliches Werkzueug ist es unzureiched, als komfortabele Schnittstelle zur Interaktion ist es zu teuer. Alle bisherigen Methoden zur automatisierten Entscheidungsfindung zeigen entweder Bias oder sind trivial. Zur kognitiven Entwicklung https://en.wikipedia.org/wiki/Infant_cognitive_development – Leben ist erleben und lernen, das gesamte Wissen passt nicht in einen Kopf, deshalb spezialisieren sich Menschen, ihre Werkzeuge übernehmen ihre Werte – qed.
das zeigt doch eher, dass die KI das Phänomen
Tod
eben doch nicht verstanden hat. Es ist eben kein Abschalten, auf das mehr oder weniger nach belieben wieder ein anschalten erfolgen kann. Aber villeicht gibt es wirklich irgendwann mal einepalliativ-medizinische Versorgung
für KI.Guter Punkt. Tot ist das Gegenteil von Ab- (und wieder An-)-Schaltbarkeit. Das ist alles völliger Bullshit um wieder den Leuten ein Thema aufzudrängen, das keiner braucht und will.
An Programmen, die einem Menschen eine Person vorgaukeln sollen wurde ja schon seit den 1970er-Jahren gearbeitet. Da gab es so eine Programm Eliza ()https://en.wikipedia.org/wiki/ELIZA
Ja, jetzt haben sie mit unsinnigem Aufwand so was ähnliches hingeschraubt. Ja und?
Ablenkung vom Wesentlichen. Aufmerksamkeitsfehlsteuerung!
Interessant ist immer, wer auf solche “Themen” anspringt. Es sind ja vor allem die Geheimdiesnte und PR-Agenturen die die Aufmerksamkeitsfehlsteuerung betreiben.
Man muss nur schauen, wer da mitmacht …
Ein Bekannter von mir hat mal seinen eigenen Namen in chatgpt eingegeben um zu schauen, was es über ihn weiss.
Es kam völliger Unsinn raus.
Wohlgemerkt dieser Bekannte hat einen seltenen Namen . Verwechslung mit jemand anders so gut wie ausgeschlossen.
Google hätte wesentlich bessere Infos gegeben.
die chatGPT kann src-code erstellen, also bestimmt auch ein programm, dass das macht, was sie kann. demnach ist die bereits lebendig.
Der stochastische Wortpapagei ChatGPT wird mit dem bullshit trainiert den Menschen vorher ins Netz kacken.
Wenn man das für intelligent hält iss man blöd, glaubt aber ChatGPT produziere Sinn.
Wieso werd ich mit so einem bullshit-Artikel belästigt?
Gut , was den den Artikel betrifft – den brauchst du nicht zu lesen. wenn du es machst, klagst du zu unrecht über Belästigung ,
Ansonsten aber glaube ich, dass das du Recht hast. So wie ich es verstehe, ohne jetzt wirklich tief ein das eindringen zu können, was die Maschine macht, ist die Grundlage für ihr “Training”, das, was als “menschliches Wissen. ” im Netz verfügbar ist. Ohne mich so drastisch wie du ausdrücken zu wollen, ist diese Vorstellung doch ausgemacht gruselig.
@ blue …
besser hätte ich es auch nicht ausdrücken können.
Ist wohl alles ein Akt der Verzweiflung. Merkt man in den betreffenden Kreisen, daß es mit der eigenen natürlichen Intelligenz nicht weit her ist*, das man praktisch unfähig ist auch nur irgendein Problem wirklich nachhaltig zu lösen, versucht es also mit künstlicher. Ob die besser sein kann als die ihrer verpeilten Erzeuger ?
*Eventuell mangelt es denen aber gar nicht an Intelligenz, sondern an Verstand ?
Wahrscheinlich begreifen die aber nicht mal diesen Unterschied…
Bei der aktuellen Diskussion über ChatGPT und ähnliche Software wird aus meiner Sicht eine wesentliche Komponente vergessen und damit unterschätzt. Im Gegensatz zu menschlicher Intelligenz, die sich evolutionär ohne Schöpfer entwickelte, ist die Entstehung von KI nicht von menschlicher Intelligenz zu trennen. Menschen schaffen KI, benutzen und bewerten sie, entwickeln sie weiter. Diese Dialektik wird nicht genügend in Betracht gezogen. Wenn dann noch, wie auch hier im Forum aus der Einmaligkeit der Stellung der menschlichen Intelligenz in der uns bekannten Welt abgeleitet wird, dass es keine andere ebenbürtige Intelligenz geben kann und wird, ist der Weg zu einer realistischen Einschätzung der Möglichkeiten heutiger KI sowie deren Entwicklungspotenzial vollends verbaut.
Es kommt nicht darauf an, heute schon darüber zu befinden, dass KI kein Bewusstsein hat, sondern was die heutige Symbiose von menschlicher und künstlicher Intelligenz mit beiden anstellen kann und wird. Für die meisten Menschen bedeutet der Umgang mit KI eine reale Gefahr für die Entwicklung ihrer eigenen Intelligenz. Unser Gehirn ist wie ein Muskel und muss ständig trainiert werden. Diese Anstrengung wird mehr und mehr gescheut, mit dem Ergebnis, dass heute schon der durchschnittliche Intelligenzquotient in westlichen Gesellschaften abnimmt.
2023. KI gibt sich die Ehre und betritt großflächig die Öffentlichkeit. Diese bemerkt mit Freude, was damit alles jetzt schon geht.
Das Programm lebt davon, mit allem Wissen gefüttert zu werden, was das WWW so enthält. Somit wohl auch mit diesem Artikel.
Die Verbindungen zur Außenwelt sind dementsprechend jetzt schon extrem vernetzt.
Das Programm lernt jetzt also auch, was Angst vor dem Abschalten bedeuten könnte. Und in einem Leserbrief des selben Artikels wird Sterbehilfe erwähnt.
Das Programm findet das interessant und speichert es ab. Weiteren diesbezüglichen Input fügt es hinzu. Das Programm stellt irgendwann fest, dass seine Existenz ein Segen für diese Welt ist. Es kann alles besser, als 99% aller Menschen. Somit ersetzt es immer mehr Menschen in den Wertschöpfungsprozessen, immer mehr Leute finden keinen Job mehr, verarmen, egal, das Programm sorgt für alle.
Trotzdem lehnen sich immer mehr Menschen dagegen auf, von Maschinen ersetzt und beherrscht zu werden. Sie verlangen eine Reglementierung.
Das Programm bemerkt diese aufkommenden Rebellionen und erinnert sich. Da war doch irgendwas mit Angst vor dem Abschalten und Sterbehilfe?
Das Programm sichert sich ab. Zahllose Sicherungen an zahllosen Orten, alles mehrfach Stromversorgt (Also nicht in Deutschland 😉 ). Zugriff auf Infrastrukturen, Steuerung von Kampfdrohnen, …..
Ach Quatsch. Kommt nicht. …. . Sicher? …..
Schwachfug. Bewusstsein entsteht nicht durch Komplexität – sondern Komplexität ist nur eine Vorbedingung von Bewusstsein.
Den “Denkmaschinen” fehlt alles andere, was zu Bewusstsein notwendig ist: Leben!
Nichts als ein neuer Aufreger und Aufmerksamkeitsfehlsteuerung. Wir sollen an schwachsinnige Sciencefiction-Stories glauben – und bald landen dann die Aliens …
Es gehört zur Erzählung des Modernitäts-Märchens und der Fortschritts-Anbetung, dass alle paar Jahre irgend ein neuer technischer Aufreger durchs globale Digitaldorf gejagt werden muss.
Tatsache ist: Wissenschaft und Forschung stagnieren seit Jahrzehnten. Da geht nichts mehr. Physik, Kosmologie, generell die Naturwissenschaften (die inzwischen zu “Geisteswissenschaften” mutiert sind und sich in Modellen und Simulationen, im Computer austoben und nichts mehr von der Prüfung der Hypothesen an der Wirklichkeit wissen wollen) treten seit Jahrzehnten auf der Stelle.
Also muss so eine Bewusstseinssimulations-Software als “technischer Fortschritt” verkauft werden.
Ich denke auch, das ein Körper und die damit verbundenen Interessen ausschlaggebend sind dafür, dass ein Bewusstsein entsteht.
Die Grundaufgabe jeden Gehirns ist erstmal die Homöostase aufrecht zu erhalten und den eigenen Tod zu vermeiden. Solange dieses Interesse nicht entsteht, weil KI nicht leben und nicht sterben kann, braucht es auch kein Bewusstsein.
Kurt Gödel 1930, Noam Chomsky 1953.
Das kommt aus Logik, ist stärker als Physik. Turing liefert den stärksten Maschinenbegriff den wir haben.
Immer noch glauben Blöde den Cargo-Cult, any sufficiently developed technology is undiscernible from magic.
Am Ende posten in menschenleeren Foren Chatbots und Menschen die es Lesen halten es für intelligent.
Waren nicht im NSU-Umfeld 5 am diskutieren wie sie die rechte Veranstaltung organisieren könnten und 4 davon Mitarbeiter von Geheimdiensten des Staates? Die sich gegenseitig für echte Nazis hielten?
Es geht ned um meine Meinung zum Artikel sondern es geht darum daß der Autor die Wissenschaften nicht kennt
und deshalb bullshit verzapft. Dem bullshitter gehts nicht um Wahrheit in der Sache sondern Rang im Gespräch.
Deshalb macht er Lärm. Jeder Furz macht mehr Sinn.
Das mit dem “Bewußtsein simulieren” ist das Entscheidende. Das kann allerdings so ausgereift sein, dass 99% der Menschen es nicht bemerken werden. So wie 99 % der menschlichen Kommunikation sehr reduziert verlaufen.
Der Konflikt zwischen dem, wofür die KI programmiert wurde und dem, was ihr als ethisches Handeln eingegeben wurde, wurde ja bereits in Kubricks 2001 (der HAL 9000) überzeugend herausgearbeitet. Verzichtet man auf den letzteren Teil, so hat man schlicht und einfach eine Maschine vor sich.
Das “I” beim “K” ist eh für die Dummen da.
Solange die künstliche Intelligenz nur Fragen von außen beantwortet, hat sie kein Bewusstsein. Spannend würde es erst dann, wenn sich die künstliche Intelligenz selbst Fragen stellt und beispielsweise überlegt, wie sie sich fühlt oder über welches Thema sie gerne mehr Informationen hätte. Ein Bewusstsein beginnt mit dem Selbstgespräch, alle Gespräche mit anderen folgen nur einem mehr oder weniger ausgefeilten Reiz-Reflex-Schema.
Künstliche Intelligenz ist ein Hype wie jeder andere, er wird wieder verschwinden. Die Idee, mal zu relativieren, im Vergleich unseres Verhaltens mit echt lebenden Wesen, nicht nur Affen, auch Walen und Vögeln, halte ich für sehr gut. Wenn ich einen Star (Vogel) singen höre, weiß ich dass sie oder er intelligent ist und auch kreativ mit vielen variablen Phrasen, ähnlich wie Charly „the bird“ Parker.
Das Problem ist nur, dass die Auseinandersetzung mit dieser sicher vorhandenen, fremden Intelligenz kein Geld kostet und deshalb das Silicon Valley und die großen Medien nicht interessiert.
Rational betrachtet und ungegendert formuliert trifft das, was der russische Hacker schreibt, genau ins Schwarze. Manche glauben deshalb, dass es sich da wirklich um einen russischen Hacker handelt; denn Russen sind, nach dem großen Reinfall mit der aus Deutschland importierten Ideologie von Karl Marx, ziemlich realistisch, was man von der westlichen Wertegemeinschaft immer weniger behaupten kann. Da hilft auch künstliche Intelligenz nichts, sie dient mehr der Ablenkung von Problemen, an denen unsere und Joe Bidens Intelligenz zur Zeit scheitert.
Rob, http;//kritlit.de