„Die KI weiß nicht, wovon sie spricht“

Bild: Pxhere.com/CC0

Prof. Dr. Marin Zec lehrt Angewandte Informatik und (Generative) Künstliche Intelligenz an der Hochschule München. Neben Informatik hat Zec auch Philosophie und Psychologie studiert.

Sie sind Professor für Angewandte Informatik. Dabei geht es um die Anwendung von künstlicher Intelligenz?

Marin Zec: Bei der angewandten Informatik geht es darum, wie man Computer gewinnbringend für die Problemlösung in unterschiedlichsten Domänen einsetzen kann. Die KI ist eine Technologie, die auch wieder in verschiedenen Bereichen angewendet werden kann. Ich bin Professor für Angewandte Informatik im Studiengang Digital Media and Print. Da geht es also eher um die Medienbranche. An der Hochschule München vertrete ich auch den Bereich Generative KI, die natürlich eine große Rolle in den Medien spielt.

Generative KI gibt es nicht nur für die Sprache, sondern auch für Bilder und Musik usw. Könnten Sie erläutern, wie man sich den Unterschied zur klassischen KI vorstellen kann?

Marin Zec: In der künstlichen Intelligenz, die in den 1940er und 1950er Jahren ihre Anfänge hatte, ging es erst einmal darum, Maschinen zu bauen, die Dinge tun können, die wir eigentlich von einem Menschen erwarten würden, also Probleme lösen oder auch Sprache produzieren. Es gab interessante Experimente wie Eliza von Weizenbaum in den Siebzigern. In jüngster Zeit ist es vielen Menschen klar geworden, dass diese Systeme sehr leistungsfähig geworden sind. Es ist auch ein Bruch eingetreten.

Klassische KI-Systeme hat man für Mustererkennung eingesetzt. Nehmen wir zum Beispiel Emails. Viele von uns haben zumindest früher sehr viel Spam-Emails erhalten. Ein KI-System würde man einsetzen, um automatisch zu erkennen, ob eine ankommende Email Spam ist oder nicht. Mit der KI würde man also ein Klassifikationsproblem lösen. Genauso gibt es prognostische KIs, die zum Beispiel Preise vorhersagen, basierend auf Trainingsdaten. Aber im Grunde geht es immer nur darum, Muster in bestimmten Daten zu erkennen. Bei den generativen Systemen geht es dann plötzlich darum, neue Kulturartefakte zu erzeugen, also Bilder, Video, Audio oder Text. Das ist schon ein Sprung, weil jetzt neuer Output erstellt werden kann. Das ist nicht mehr diagnostisch, sondern eben generativ.

Kann generative KI auch kreativ sein? Sie produziert ja Neues. Aber vielleicht sollten wir erst noch einmal zurückgehen. Wie lernt denn eine generative KI? Wie kann man sich das Schritt für Schritt vorstellen?

Marin Zec: Das ist eine Frage, über die ich mehrere Vorlesungen halten könnte. Ich versuche es, kurz zu halten. Die populärsten Systeme aktuell beruhen auf Verfahren des maschinellen Lernens. Anstatt wie zu den Anfangstagen der KI oder in der klassischen Programmierung, wo man die Regeln Zeile für Zeile aufschreibt, was der Computer tun soll, weiß man bei maschinellen Lernverfahren gar nicht, wie man diese Regeln formulieren soll. Wenn man an Objekterkennung in Bildern denkt, oder an Ziffernerkennung in handschriftlichen Notizen, dann fällt es uns wahnsinnig schwer, hier Regeln zu definieren, die wir einprogrammieren könnten, damit der Computer zum Beispiel eine Zwei erkennt, weil jede Zwei doch wieder ein bisschen anders aussieht. Manche sind auch fast unleserlich.

Weil wir diese Regeln nicht schreiben können, sind alternative Ansätze mit dem maschinellen Lernen entstanden. Da hat man gesagt: Wir wissen die Regeln nicht, also lassen wir die Maschine diese Regeln selber lernen, indem wir ganz viele Beispiele zeigen, zum Beispiel Scans von ganz vielen handschriftlichen Ziffern. Diese Scans, diese Bilddateien, werden mit den korrekten Labeln ergänzt, also mit der Kategorie, zum Beispiel der Ziffer Zwei. Ein maschinelles Lernverfahren schaut ganz viele dieser Bilder an, wodurch es implizit ein statistisches Modell lernen soll, um dann, wenn ein neues Bild präsentiert wird, die entsprechend richtige Kategorie zu wählen. Beim maschinellen Lernen hat man ganz viele Beispieldaten und die KI ist so programmiert, dass sie implizit diese Regeln selbst lernt.

Ganz wichtig ist zwischen einer Trainingsphase und einer Anwendungsphase zu unterscheiden. Ein maschinelles Lernverfahren wird in der Regel erst einmal trainiert, um abschätzen zu können, welche Ziffer oder welcher Buchstabe vorliegt. In der Anwendungsphase präsentiert man neue Bilder. Das Training dauert Monate, weil der Hersteller von GPT unvorstellbar viele Texte gesammelt hat, mit denen dieses Sprachmodell trainiert wurde, um syntaktisch korrekte Sprache zu können. Dieses Sprachmodell können wir jetzt einsetzen, um neue Texte zu erzeugen.

Prof. Dr. Marin Zec im Gespräch.

Bedeutet das, dass die KI eigentlich eine Blackbox ist. Also man bringt bildlich gesprochen etwas vorne hinein und auf der anderen Seite kommt etwas heraus. Aber was genau innen geschieht, kann man prinzipiell nicht nachvollziehen oder nur jetzt nicht mit den Methoden, die man zur Verfügung hat.

Marin Zec: Das ist eine Frage, die kontrovers diskutiert wird. Die populärsten Verfahren sind die neuronalen Netze. Damit hat man versucht, ein sehr vereinfachtes Modell des Gehirns mit künstlichen Neuronen nachzubilden. Da gehen Signale rein und es kommen welche raus. Aber vielleicht ist das ganz ähnlich mit den neuronalen Aktivitäten der Fall, die in Ihrem Gehirn gerade stattfinden. Wenn ich diese jetzt mittels eines Scanners sehen würde, könnte ich daraus nicht auf Ihre Gedanken schließen.

Manche versuchen es ja …

Marin Zec: Richtig. Aber da gibt es viele Probleme. Man versucht, Korrelationen herzustellen, aber das ist nicht wirklich ein Lesen der Gedanken. Ähnlich ist das bei einem neuronalen Netz.

Die generativen Sprachmodelle spucken auch Ergebnisse aus, die man nicht gerne hat. Man spricht von Halluzinationen oder auch von Fake-Aussagen. Kürzlich erschien eine Studie, dass manchmal ein ganz schön hoher Prozentsatz an Antworten falsch ist, was auch davon abhängt, wie man fragt. Ist das ein Zeichen, dass die KI doch innovativ oder kreativ ist, wenn sie Falsches produziert, was wir Menschen ja auch machen? Oder ist es ein Fehler, der durch betreutes Lernen ausgemerzt werden kann?

Marin Zec: Es gibt Informatiker, die das ein bisschen anders sehen, aber ich würde sagen, alles, was die KI oder ChatGPT produziert, ist eigentlich eine Halluzination. Warum ist es dann doch oft so, dass die Ergebnisse wahr oder stimmig sind?  Das liegt einfach daran, dass es ein sehr ausgeklügeltes statistisches Modell ist. Es emuliert menschliche Sprachproduktion anhand dieser unvorstellbar vielen Daten.

Wobei diesen Daten ja auch nicht wahr sein müssen. Dazu gehören Märchen, Fiktionen, Lügen und alles Mögliche.

Marin Zec: Richtig, im Trainingsprozess gibt es widersprüchliche Positionen, Argumente, Geschichten etc. Da wird nicht unterschieden zwischen Wahrem und Falschem. Dafür gibt es gar kein Konzept. Und man muss einen zusätzlichen Aspekt bedenken. Bei diesen Sprachmodellen wird immer nur Wort für Wort generiert, also eigentlich eher Silbe für Silbe. Man nennt das in der Fachsprache Token.

Manche sagen, dass wir Menschen ähnlich Sprache erzeugen. Ich würde sagen: nein. Meine Studierenden lasse ich gerne mal stille Post spielen. Ich sage ein Wort, die nächste Person muss ein weiteres Wort zum Vervollständigen anfügen und dann sieht man, dass man irgendwann in eine Pfadabhängigkeit kommt. Dann muss man etwas sagen, nur weil jemand davor was gesagt hat, obwohl man selber eigentlich weiß, das stimmt nicht. So kann man sich das vielleicht ein bisschen anschaulicher vorstellen.

Aber warum kommt dann doch oft Richtiges heraus? Oder etwas, was anscheinend eine korrekte Antwort auf eine Frage ist, auch wenn sie möglicherweise vom Wahrheitsaspekt falsch sein kann. Die Sprachmodelle funktionieren ja und gehen meist nicht auf Holzwege.

Marin Zec: Das ist noch nicht sehr gut verstanden. Ja, es ist auch verblüffend, warum das so gut funktioniert. Meine Deutung ist, dass mit Stand von heute das, was aufgeschrieben wird, überwiegend doch wahr ist. Und dann ist die Wahrscheinlichkeit einfach höher. Das ist eine sehr grobe Intuition, aber meine Erklärung, weil bei den verwendeten Texten Wahrheit und Nicht-Wahrheit nicht gleichverteilt sind. Und dann gibt es die konditionalen Abhängigkeiten und letztlich das statistische Modell, das dazu tendiert, Texte Wort für Wort zu reproduzieren, die im Durchschnitt den Texten im Internet entsprechen.

Das ist ein interessanter Gedanke. Meine These ist, dass über KI eine Normierung der Sprache eintritt. Die KI lernt aus allen möglichen Quellen eine gewisse Wahrscheinlichkeit für die Texterzeugung, das kann eigentlich doch nur Durchschnittssprache sein, die grammatikalisch korrekt, aber nicht eigenwillig ist. Könnte man das sagen?

Marin Zec: Wäre das Eigenwillige in Ihrem Sinn inhaltlicher oder stilistischer Natur? Grundsätzlich stimme ich der These zu, dass die Vermischung von Texten in einen Durchschnittstext mündet. Gleichzeitig ist es interessant, dass man den Modellen ja auch sagen kann: Beantworte mir die Frage im Stil von …. Dann wird auch ein Stil emuliert. Ich glaube, man kann diese KIs auch dazu verwenden, ein bisschen auszubrechen.

Man kann einstellen, ob die Antwort in einfachen Sätze oder in komplexen Sätzen erfolgt. Man kann einen Stil wie Hegel oder wie die Bildzeitung verlangen.

Marin Zec: Aber es ist natürlich so, dass die KI-Systeme keine Agenten sind. Sie haben keine Intentionen und kein Bewusstsein. Sie produzieren einfach Token für Token. Insofern ist ein origineller Stil von diesen KI-Systemen auch nicht zu erwarten. Es ist nicht eingebaut. Das ist meine Position.

Also dann wären diese, nennen wir es mal Halluzinationen, Ausrutscher? Oder doch ein Anzeichen dafür, dass andere Wege beschritten werden. Die können manchmal blöde sein, aber vielleicht auch mal innovativ oder kreativ. Wir wissen ja auch nicht, wie das bei Menschen funktioniert.

Marin Zec: Wenn wir von Ausrutschern sprechen, dann haben wir als Mensch den Text schon interpretiert. Auch hier gibt es unterschiedliche Ansichten in der Fachcommunity. Ich bin der Ansicht, dass die KI wirklich nicht weiß, wovon sie spricht. Sie ist ein mathematisches Modell. Man kann das vielleicht so sehen. Sie können zum Beispiel mit GPT eine Schachpartie spielen. Und warum funktioniert das? Naja, weil im Internet sehr viele Schachpartien in Schachnotation dokumentiert sind. Das heißt auch viele klassische Eröffnungen. Insofern geht es eine Weile gut, wenn sie einen Zug nach dem anderen macht, aber irgendwann ist die Wahrscheinlichkeit hoch, dass sie einen komplett ungültigen Zug macht. Das liegt daran, dass sie nicht mit Ihnen Schach spielt, sondern die Schachnotation vorhersagt. Und wenn sie nicht mehr weiß, was sie tun soll, dann sagt sie irgendetwas, was am nächsten liegt, voraus. Insofern kann dann sagen, es ist ein Ausrutscher. Aber ich würde sagen, es kann kein Ausrutscher sein, weil das System gar nicht weiß, was es tut.

Deswegen gab es auch immer wieder Versuche, praktisch das KI-System so weit an den Rand zu bringen, dass es Unsinn antwortet, oder?

Marin Zec: Das kann man natürlich.

Sie sagten, man kann verlangen, etwa im Stil von Kafka oder von James Joyce oder von wem auch immer zu schreiben. Aber könnte man sich denn vorstellen, dass man einen Autor kreiert, der eigenständige neue Romane schreibt? Wie müsste man das prompten?

Marin Zec: Auch hier müssen wir erst klären, was ein eigenständiger Roman ist. Ich habe beispielsweise für meine Nichte versucht, eine Gute-Nacht-Geschichte zu erzeugen. Wir hatten oft gespielt,  dass meine Nichte mir drei Reizwörter genannt hat und ich eine Geschichte draus spinnen musste. Das war nicht immer leicht. Ich habe das mal mit ChatGPT ausprobiert. Es kam eine klassische Kindergeschichte heraus. Ist das jetzt eigenständig? Wenn ich diese Geschichte im Netz suche, werde ich sie wahrscheinlich nicht finden. Aber natürlich werden wieder Motive und Themen reproduziert, die in den Trainingsdaten, also im Internet, schon enthalten sind.

Es gab in der neuzeitlichen Philosophie die These, dass wir immer nur vom Bekannten auf das Unbekannte schließen können. Das wäre ja hier auch gegeben. Es gibt einen Satz an Bekanntem, die Milliarden Texte. Bei uns ist es ja auch nicht anders, aber es passiert dann doch, dass manche Leute Romane schreiben, die bislang noch nie geschrieben worden sind, oder dass sie eine neue Welt als Roman geschaffen haben. Ist so etwas bei einer KI vorstellbar?

Marin Zec: Ich persönlich glaube das nicht. Wir haben ein Weltmodell, wir haben ein Bewusstsein, wir haben Emotionen. Es gibt so was wie einen Zeitgeist. Heute schreiben wir einen Liebesroman wahrscheinlich anders als im 19. Jahrhundert. Es gibt gesellschaftliche Normen, die wir auch infrage stellen. Das alles wird in Literatur verarbeitet. Aber all das hat die KI nicht. Die bekannten Sprachmodelle werden einmal groß trainiert, um diese Sprachkompetenz zu erwerben. Sie werden auch fortlaufend angepasst, aber sie beziehen sich immer nur auf Sprache, die irgendwie irgendwann eingegeben wurde. Aber vieles, was wir Menschen denken, fühlen, was in der Welt passiert, ist nicht in Schriftsprache dokumentiert. Zum Beispiel wird im Internet relativ selten stehen, dass der Kreis rund ist. Common Sense ist zum Beispiel nicht enthalten, weil wir so etwas gar nicht aufschreiben, weil wir das als Menschen wissen. Oder wenn man an die Theory of Mind denkt. Wir Menschen haben eine relativ gute Idee davon, was Intentionen von anderen Personen sind, wenn wir sie beobachten. All diese Themen sehr wichtig in einer literarischen Tätigkeit und in einem originellen, kreativen Sinn liegt das, glaube ich, außerhalb der Kompetenz dieser Sprachmodelle, wenn man überhaupt von Kompetenz sprechen will.

Ähnliche Beiträge:

55 Kommentare

  1. Das Adjektiv kreativ leitet sich von Substantiv Kreatur ab. Schöpferisch ist der, der etwas Lebendiges schafft.
    Eine KI kann nicht kreativ sein. Da kommt kein lebendiges Geschöpf heraus wenn die KI halluziniert.
    Wenn Romane Bedeutung erlangen, dann werden ihre Figuren zu lebenden Kreaturen des Geistesleben einer Gesellschaft. Sie entstehen aus dem organischen Bedeutungsrahmen der Gesellschaft, entfalten dort ihr Leben und werden Teil der organischen Matrix bestehend aus lebendig gelebter Bezüglichkeit in der Gesellschaft. Bezüglichkeit und Bedeutung ist aber das Gegenteil von Wahrscheinlichkeit. Eine KI kann noch nicht einmal so schön Lügen wie Relotius und das wird sie auch niemals können.

    Aber was argumentiere ich hier bei Leuten die von einer „Künstlichen Intelligenz“ schwadronieren ohne zu kapieren, dass es so etwas gar nicht geben kann. Das Wort Intelligenz macht nur in Bezug auf Lebewesen einen Sinn.
    Abseits von Leben verlieren die Dinge ihre Bedeutung, ihren Kontext. Eine Maschine bleibt immer Physik. Physik ist auch nichts Schlechtes aber ganz für sich allein genommen völlig bedeutungslos.

    1. Wer ein Geschöpf schafft, ist schöpferisch, würde ich sagen. Wahlweise auch auf Latein. Das Geschöpf würde ich nicht als Ursprung dieses Zusammenhangs sehen, sondern eher als sein Resultat.

    2. deiner Aussage, das es „Künstliche Intelligenz“ gar nicht geben kann, stimme ich zu.
      wenn wir Menschen ein IT system schaffen, das in unglaublich kurzer Zeit durch Nutzung gigantische Datenbanken und sehr komplexer Mustererkennung mit Selbstlern Funktionen erstaunliche Resultate generiert , so ist das am Ende eine Koerperweiterung des Menschen, so wie es das Auto oder das Smartphone war.
      es ustim eigentlichen Sinn nicht künstlich, nur weil es nicht biochemische arbeitet.

      wir sollten begreifen, das z.B. Chat GBT eine evolutionäre Weiterentwicklung darstellt.

      das Veränderungspotential ist wohl nur mit der menschlichen Entwicklung des Ich Bewusstseins durch den Zusammenbruch der bikametalen Psyche vor ca. 3500 Jahren zu vergleichen.

      wir werden uns sehr schnell sehr stark verändern.

      viel spannender ist für mich die Frage, ob die IT Systeme sich irgendwann unabhängig vom biologischen Menschen selbst reproduzieren werden, und ob wir als bio- Wurmfortsatz dann evolutionäre noch entwicklungsfähig sein werden, oder in einer kleinen ynischr dem Aussterben entgegen schrumpfen.

    3. Obwohl sie natürlich im Prinzip Recht haben, so sagt Zec aber doch gar nichts anderes… Gerade in den letzten drei Fragen macht er recht deutlich was KI alles NICHT ist. Es sind die Schwätzer die von „künstlicher Intelligenz“ und Kreativität reden.

      Wenn ich eine Ladung Kacke mit Tomatenmark verrühre, die Konsistenz der beiden Stoffe ist ja ähnlich, so ist das doch weder intelligent noch kreativ. Wenn es aber eine KI tut, dann behaupten die Deppen trotzdem es sei per definitionsowohl intelligent, als auch kreativ.

      was immer vergessen wird zu erwähnen, ist dass der Sinn der KI darin besteht höhere Profite zu erwirtschaften. Das haben wir ja an dem Streit um diesen typischen digitalen Idioten Altman gesehen. Er sah seine Aufgabe darin die KI dorthin zu entwickeln, wo sie Profite maximieren kann. Andere meinten, man muss auch die Verantwortung für die Emdresultate der Entwicklung der KI mit einbeziehen… und feuerten ihn.
      Da kamen die richtigen Schweine, wie Bill Gates und seinesgleichen, die alle ihre zig Millionen ja nicht zwecks Ethik in die Firma AI gesteckt hatte, und feuerten ihrerseits den Aufsichtsrat.
      Jetzt leitet Altman wieder die Projekte zur Pofitmaximierung, ohne ethische Begrenzung.

      Das ist der Teil der Wahrheit, den auch Herr Zec im Interview verschweigt, und der auch die Computer Fuzzies, die Masse der digitalen Deppen nicht sehen will.

  2. Nun ist das Ganze ja keinreswegs neu. Anfang der 80-er kamen in Japan die „Computer der 5. Generation“ heraus. Die sollten sprechen und verstehen können. Auch damals schon neuronale Netzwerke und Expertensysteme. Ich erinnere mich an einen Satz aus der damaligen Zeit: „wer auf die 5. Generation nicht vorbereitet ist, den wird die Welle aus Japan treffen wie eine Palette Backsteine von einem Hochhaus“. Aber was war? Diese Expertensysteme wollte niemand haben. Eigentlich kam überhaupt nichts Verwertbares heraus. Der japanische Staat hatte sich dermaßen verschuldet, dass die Schulden 100 Prozent des BIP überstiegen. Was damals noch ganz furchtbar war.

    Ob das Gerät wirklich denkt, ist ja nun nicht das Hauptkriterium. Mir reicht es, wenn es so tut als ob. Und da habe ich nun schon des Öfteren profitiert. Auf der Suche nach einem Bauteil oder aber in meiner Eigenschaft als Verschwörungstheoretiker. Das hat nun eine ganz andere Qualität als in den 40 Jahren zuvor.

    Beim Schachspielen höre ich eine gewisse Geringschätzung heraus. Aber wie war es denn? Die ersten Computer, die in der Lage waren, einen Menschen zu schlagen, waren sogenannte Numbercruncher. Halt so viel wie mögliche Züge voraus berechnen und den besten nehmen. Aber der Numbercruncher verliert inzwischen gegen den KI-Spieler. Der spielt „Schach von einem anderen Planeten“, wie es in einem Spektrum-Artikel formuliert wurde.

    Ich muss schon sagen, da musste ich staunen. Obwohl ich üblicherweise schwer zu beeindrucken bin.

    1. „Beim Schachspielen höre ich eine gewisse Geringschätzung heraus. Aber wie war es denn? Die ersten Computer, die in der Lage waren, einen Menschen zu schlagen, waren sogenannte Numbercruncher. Halt so viel wie mögliche Züge voraus berechnen und den besten nehmen. Aber der Numbercruncher verliert inzwischen gegen den KI-Spieler. Der spielt “Schach von einem anderen Planeten”, wie es in einem Spektrum-Artikel formuliert wurde.

      Ich muss schon sagen, da musste ich staunen. Obwohl ich üblicherweise schwer zu beeindrucken bin.“

      Mal überlegt, dass es sich um eine Geringschätzung der Leistungsstärke der LLM-Modelle (wie ChatGPT etc.) beim Schach spielen handelt (und nicht um eine generelle Geringschätzung der Leistungsstärke von Schach-Engines)?

      Oh und dass was Sie als „Numbercrunching“ bezeichnen spielt immer noch eine große Rolle bei den heutigen Schach-Engines. Soll heißen, die Berechnungstiefe (und die Rechenzeit), welche man eine Schach-Engine rechnen läßt hat immer noch einen sehr großen Einfluss auf die „Spielstärke“, solange die Anzahl der Figuren nicht gering genug sind, dass man aufgrund der derzeitigen Spielstellung eine „Tablebase“-Lösung hat.
      Und ein „KI-Spieler“ mit geringer Tiefe (und wenig erlaubter Rechenzeit) kann durchaus gegen einen „Numbercruncher“, dem entsprechend viel Rechenzeit zur Verfügung gestellt wird (und bei der eine sehr große Berechnungstiefe eingestellt ist), verlieren.

      ps. Das einzige, was mich hier (im Bezug zu Schach) immer wieder erstaunt ist, wie häufig von Spielern und Schachspiel-Kommentatoren die Wörter „Engine-Move“, „AI-Overlords“ verwendet werden und behauptet wird, dass man dieses und jenes aufgrund der modernen Schach-Engines gelernt hätte.

        1. Spektrum-Artikel ist erstens von 2018 (und die Meldung war mir auch seit 2018 bekannt). Weiterhin fehlt im Artikel u.a. Angaben über die zur verfügungstehende Rechenleistungen und die jeweils eingestellte Berechnungstiefen. Soll heißen die Quellenangabe negiert in keinster Weise meine Anmerkungen (meine Behauptung war nämlich nicht, dass bei ähnlicher Berechnungstiefe und ähnlicher Rechenleistung/Rechenkapazitäten die alten Schachengines gegen die neuen Schachengines eine Chance hätten).

          ps. Ansonsten können Sie ruhig davon ausgehen, dass AlphaZero durchaus gegen die anschließenden Versionen von Stockfish, Leela (und Konsorten) durchaus dann doch Probleme haben könnte.

  3. Intelligenz ohne Bewußtsein wird immer nur das eine sein: künstlich! Und wie hat schon Wittgenstein gesagt: worüber man nicht sprechen kann darüber muss man schweigen

    1. „Bewusstsein “

      Daher auch die Frage nach der Wahrscheinlichkeit, Leben im weltraum finden zu können, und Leben mit Bewusstsein finden zu können, die immer zu 2 unterschiedlichen Antworten führen muss. Denn nur letzteres ist ja die eigentliche gigantische Leistung der Evolution.

    1. Ich neige dazu, zuzustimmen. Obwohl ich mir Mühe geben muss, Zugang zu einer von Ideen geleiteten Philosophie zu finden: Der Text hat was!
      Ralf Hanselle – Homo digitalis. Obdachlos im Cyberspace zu Klampen Verlag . Für Menschen mit Platz-Problemen auch im epub oder im pdf-Format erhältlich,

    2. Das Grundrecht bekommst du als Insassin des Justizvollzugs oder als Obdachloser auf der Straße schön analog und manchmal auch Lebenslänglich.

          1. Kein W-LAN, kein Handy, keine Scheckkarten, kein versmartetes KFZ. Kein Windows, alles über Kabel…nur ein PC…und noch so viele andere Dinge, die man nicht mitmachen sollte.
            Keine Masken, keine Tests keine Genmanipulation.
            Keine,Tattoos, keine Mode, kein Schmuck…usw..denn, wer so was macht, identifiziert sich durch Äußerlichkeiten und ist sowieso raus.

  4. Unser Raifeisen Markt hat jetzt seine Angestellten gegen High Tech
    ausgetauscht. Künstliche Intelligenz nicht gerade, aber viel menschliche
    Dummheit eingesetzt. Es wurde den beiden Frauen die sich an der Kasse
    abwechselten gekündigt und !!! eine Fahrradklingel !!! an den Kassentresen
    geschraubt. Dazu ein DIN A4 Zettel an der Corona- Abwehr-Scheibe mit
    dem Hinweis, dass man bitte Klingeln möchte damit eine von 2 Mitarbeiterinnen
    zur Kasse stürmt, wenn man vor hat zu zahlen. Da ich ungern 5 Minuten
    mit einer Fahrradklingel plaudere, werde ich den Markt nicht mehr aufsuchen.

    1. Das mit den Regeln ist einfach gesagt, aber doch wesentlich komplexer..
      Regeln setzen einen Plural voraus in dem das Handeln von Subjekten von Bedürfnissen geprägt ist und der Erkenntniss , das die erste Regel nur sein kann, überleben zu wollen. Aber dazu müssen Sie kommunizieren können untereinander. Kommunikation brauch aber auch Regeln, so musste der Mensch lernen, kompromisse eingehen zu können. Und da sind Wir wieder am Anfang , natürlicher Intellekt brauch Plural …. o)
      KI kennt keine Bedürfnisse, wie auch. Nur Ihre Eigentümer verfügen über Fähigkeiten dieser Art o)))
      Aber Kausale Zusammenhänge erkennen zu können in Unmengen an Daten,da ist KI dem menschlichen Intellekt überlegen, unglaublich die Leistungsfähigkeit aktueller KI Bolieden auf diesem Gebiet.
      Der Begriff KI an sich ist daher vielfach unterteilt in verschiedene klassen . Natürlicher Intellekt ist aber eine ganz andere Baustelle ..

  5. Die KI weiß nicht, wovon sie spricht.

    Natürlich nicht. Im Grunde genommen „weiß“ die KI nämlich überhaupt nichts. Das ist nur ein (durchaus beeindruckendes) Werkzeug um vorhandene Daten nach vorgegebenen Algorithmen durchzuarbeiten und zu kombinieren. Völlig mechanisch. Von Intelligenz ist da keine Spur. Der Ausdruck ist irreführend.

    Und möglicherweise auch gefährlich. Die Folgen können dramatisch sein wenn man die KI einfach machen lässt. Wenn sie in sekundenschnelle Entscheidungen treffen soll bei einem nur potentiellen atomaren Erstschlag. Beim Hochgeschwindigkeitshandel an der Börse kann es zu einem gewaltigen Börsencrash kommen. Ebenso zu tödlichen Folgen wenn sie in der Medizin zu Falschbehandlungen führt.

    Ein beunruhigender Artikel kürzlich auf Infosperber:

    Chatbot zitiert aus erfundener Studie und täuscht Ärzte

    Künstliche «Intelligenz» erzeugt eine überzeugende Fantasie-Studie. Auf Nachfragen entschuldigte sich der Google-Chatbot «Bard».

    https://www.infosperber.ch/gesundheit/chatbot-zitiert-aus-erfundener-studie-und-taeuscht-aerzte/

    Mit sehr interessanten (und aufschlussreichen) Leserkommentaren.

      1. Oh mein Gott!! Sofort komplett canceln!! Nur die eine, reine, wahre Lehre darf überdauern!! Den Rest: ab in den Müll. Machen heute alle so. 🤔

        1. Ich mach das jedenfalls seit dem 12.4.2020. so.
          Die Klimajünger sind die Schlimmsten.
          Seit mehr als 20 Jahren kämpfe ich gegen diese Leute.

    1. Diese Geschichte ist ein eindeutiges Plädoyer für die Stärkung „natürlicher Intelligenz“ denn wenn die KI nicht weiß wovon sie spricht, sollten es die, die sie verwenden um so mehr. Da sieht es allerdings ziemlich düster aus und genau da liegt auch das Problem. Ohne natürliche Intelligenz ergibt künstliche keinen Sinn. Es sind dann nur die neuen Schatten in Platos Höhle auf die die Gefangen ehrfürchtig glotzen und dies für die Wirklichkeit halten— oder mit dem alten Herrn Marx: Eine von Menschen geschaffene Sache, von der diese Menschen glauben, dass sie Macht über sie habe. Im Fetischismus hat nicht der Mensch Macht über die Sache, sondern die Sache hat Macht über den Menschen „Um daher eine Analogie zu finden, müssen wir in die Nebelregion der religiösen Welt flüchten. Hier scheinen die Produkte des menschlichen Kopfes mit eigenem Leben begabte, untereinander und mit den Menschen in Verhältnis stehende selbständige Gestalten.
      Und in der Tat, die Wahrscheinlichkeit, dass unsereins in nicht allzu ferner Zukunft den Auswürfen einer KI „ alternativlos“ ausgeliefert sein wird erscheint mir hoch. Die KI als quasi gottgleiches Wesen entscheidet über Leben und Tod und die Leute machen mit….

    2. Es sind auch schon andere darauf hereingefallen. Zum Beispiel ein besonders schlauer Anwalt, der sich seine Schriftsätze hat schreiben lassen. Da standen dann von der Software herbeihalluzinierte Urteile auf die verwiesen wurde. Es sah eben nur aus wie ein normaler Brief an ein Gericht aussieht, aber ohne den Inhalt zu haben. Es wurde nur die äußere Form erkannt, wie solche Schreiben aussehen.

      https://www.lto.de/recht/kurioses/k/anwalt-new-york-chatgpt-recherche-schriftsatz-fake-urteile

      Lehrer haben auch mit Computer generierten Hausaufgaben zu kämpfen.

  6. Kein Bewusstsein, kein immanentes Wissen, keine Gefühle – kurz brauchbar für alle Anwendungen, bei denen es keinen menschlichen, also subjektiven Faktor gibt, in denen es ’nur‘ um naturwissenschaftliche Gesetze geht. Alles andere ist Bruch.

      1. “Kein Bewusstsein, kein immanentes Wissen, keine Gefühle” naja, passt doch für die heutigen Menschen, oder?

        Ja, genau das ist das Problem. Nur solche Menschen, die sich schon so weit in Richtung Maschine vom menschsein entfernt haben, können auf die Idee kommen sowas wie „künstliche Intelligenz“ zu konstruieren und es dann auch noch auf die Welt loszulassen.

  7. Die KI kann nur das Wissen, was ihr programmiert wurde. Sie hat zwar das Wissen, aber da sie keine eigenen Erfahrungen sammeln konnte, sondern nur über das programmierte Wissen verfügt, kann sie nicht verstehe, welche Tragweite ihr Handeln hat. Solange also die KI nicht über eigene Erfahrungen verfügt, wo ich auch die sensorischen Fähigkeiten mit einschließe, wird das mit der KI nichts, sie kann immer nur so gut wie der Programmierer sein und gibt man ihr freie Hand, sodass sie besser als ihr Erschaffer ist, wird sie schnell an ihre ethische Grenzen geraten, weil ihr einfach die Erfahrung fehlt. Sie kann zwar 1 und 1 zusammenzähle, aber das Leben folgt keinem Algorithmus.

    1. „KI kann nur das Wissen, was ihr programmiert wurde.“

      Das ist eine komplizierte Baustelle, denn heutige KI kann Wissen aufnehmen, das Ihr nicht programmiert wurde.
      Nur die Verwertung/Auswertung dieser Art Wissen , da brauch es noch Hilfe der Programmierer, und das wird sich auch nicht so schnell ändern. Ihre EIgentümer aber erlangen dadurch einen unglaublichen Vorteilen im Bereich Ökonomie vor allem.Noch ist das nicht so nachgefragt, aber man hat schon angefangen, Gesellschaften in diese Richtung zu fragmentieren und damit Abhängigkeiten zu erzeugen, die jeglichen Demokratie Verständniss zu wieder laufen ..

  8. Eine KI zu vernichten, ist wesentlich schwieriger als ganze Völker oder Ethnien, da sie dezentral rund um den Globus auf vielen Servern beheimatet ist. Schaltet man einen davon mit Hyperschallraketen aus, sprießen gleich drei neue wie Pilze aus dem Boden.

    Das größte Potential der künstlichen Intelligenz liegt jedoch neben der militärischen Anwendung in der minutiös ausgeklügelten Bekämpfung natürlicher Intelligenz. Künstliche Intelligenz steht in Konkurrenz zur natürlichen und trägt wesentlich dazu bei, die profitorientierte Verdummung der Menschheit durch möglichst ausgeklügelte Desinformationstaktiken unmerklich voranzutreiben, denen der menschliche Verstand schlussendlich nicht mehr gewachsen ist, nicht einmal die sie beauftragenden Superkonzerne.

    Allein der Grundgedanke war bereits eine direkte Ausgeburt des Bösen aber Satan wird sich etwas dabei gedacht haben, die natürliche Intelligenz abzuschaffen.

    1. Wenn sie jetzt noch das infantile manichäische Denken weglassen, dann klingt ihr Komentar recht gut.

      In der Realität ist das Ganze nicht viel mehr als Darwinsche Evolution.

      1. Die mitunter manichäisch anmutende Denkweise in meinen Kommentaren ist ein bewusst eingesetztes Stilmittel, um den Exorzsimus bei Kreaturen einzuleiten, die von der darwinschen Evolution befallen und nur durch intensive Beschwörungen okkulter Mächte auf den Pfad der Tugend zurückzuführen sind.

        Es gab aber auch schon Fälle, bei denen ausgemachte Kapitalisten im Angesicht manichäistischer Spiritualität ihren üblen Machenschaften abschworen, als sie die Sinnlosigkeit ihres Daseins erkannten.

  9. KI ist ein Hype.

    KI ist nicht neu, ein Klassiker war „ecopolicy“. Neu ist, eine KI mit der Müllhalde des Internet zu füttern.

    Da sahnen die Techbrothers gross ab und Peter Altman reitet in seinem neuen Sportwagen zur nächsten Konferenz ein.

    Aber wie bei Blockchain vergeht das wieder.

    1. Ihre Träume in alle Ehren, aber leider ist die Masse der Menschen bereits so Manipuliert und verdummt., dass man mit KI Texten in Kürze Millionen von Menschen problemlos steuern können wird.
      Nehmen sie den Umgang der Massen mit Themen wie Ukraine, Gaza, Corona, Impfen, Trump, „Nazis“ oder Massenmigration, und schon sehen sie warum… Die KI ist perfekt dafür geeignet erfolgreich manipuliernde Texte zu schreiben! So eine Art Goebbels für die davos Clique…

      Naja , immerhin triffen die Konsequenzen die Richtigen.

  10. „Aber was argumentiere ich hier bei Leuten die von einer “Künstlichen Intelligenz” schwadronieren ohne zu kapieren, dass es so etwas gar nicht geben kann. Das Wort Intelligenz macht nur in Bezug auf Lebewesen einen Sinn.“

    Beim IQ-Test werden 2 verschiedene Faktoren getestet: zum einen die kristalline und zum Anderen die fluide Intelligenz.
    Kristallin ist alles erlernte/erfahrene Wissen – fluid ist das kreative Vermögen bzw auf Unvorhergesehenes mit einer Lösung zu reagieren. Kristallin kommt auf maximal 50 Punkte, alle Punkte darüber sind dem Fluidum geschuldet.
    Am Werdegang des Menschen läßt sich das sehr schön beobachten – bei der Geburt haben wir Null kristallinen, aber dafür einen unheimlich großen fluiden IQ. Im Alter dreht sich das diametral – kristalliner IQ wird relativ hoch, während (bei den meisten Menschen) der fluide IQ immer mehr abnimmt.
    Außerhalb dessen wird heute immer mehr auf den emotionalen IQ geschaut, weil Emotionalität macht infantil und wird sehr stark hormonell bestimmt. Ausser der hormonellen Ebene spielen dabei auch noch Vergiftungen (wie zB Bisphenol A, Impfspikes oder elektromagnetische Wellen) und andere Arten von Zellstress eine Rolle.

    In Sachen kristalliner IQ spielt uns der Computer an die Wand – fluid ist er eine glatte Null.
    Der Euphemismus “Künstlichen Intelligenz” ist nicht mehr als geschickt platzierte PR…sprich Sand in die Augen.
    Als vor ~120 Jahren Flugzeuge aufkamen und die Menschen sich wunderten, wie die fliegen können ohne mit den Flügeln zu schlagen, wäre ein vergleichbarer Euphemismus „künstliche Vögel“ für Flugzeuge gewesen.

    Der Begriff KI ist wohl eher als Abkürzung für „keine Intelligenz“ synonym. 😉
    „Intelligenz” lateinisch intellegere „erkennen“, „einsehen“; „verstehen“

  11. Dieser ganze KI-Hype geht mir mittlerweile mächtig auf den Zwirn.

    Komisch, dass sich keiner mal die Frage stellt, was die tollste KI nützt, wenn es an allen Ecken und Enden an NI mangelt.

    1. KI und NI hängen invers proportional voneinander ab. Je dümmer der Laberkopp desto mehr schwätzt er von künstlicher Intelligenz.

  12. Nun, künstliche Intelligenz simuliert Intelligenz. Viele von uns, die glauben, daß, wenn etwas läuft wie eine Ente, aussieht wie eine Ente und auch quakt wie eine Ente, deshalb automatisch auch sicher eine Ente sein muß, werden ihr blaues Wunder erleben. Algorithmen kombiniert mit Wahrscheinlichkeitszuordnungen beispielsweise hinsichtlich Beliebtheit, ergeben denn gern auch ein mathematisch-wissenschaftlich korrektes Ergebnis, das aber, wie Mc Donalds jetzt leidvoll erfahren mußte, eben darin resultierte, daß die KI Speck mit Vanillesauce als erfolgversprechendes Gericht vorschlug. Tja, logisch-mathematisch korrekt, von der Beliebtheit in den Teilbereichen her auch, aber in der Programmierung haben die jungen Nerds offenbar die Liste mit den geschmacklichen NoGoes einfach und dummerweise vergessen. KI agiert wie Savants (Inselbegabte): Diese Leute können beispielsweise einerseits unfaßbar beeindruckende Intelligenzleistungen erbringen, sind aber andererseits oft zu blöd sich die Schuhe zuzubinden. Diese Savants können in ihrem Fachgebiet aucht sehr schnell sehr viel dazulernen, bleiben aber weiterhin unfähig zu lernen, wie man Schuhe bindet. Es gilt die alte Computerweisheit: Wer blöd programmiert, erhält auch ein blödes Ergebnis. Nur: Leider sind die meisten eben auch nur so schwach begabt, daß sie die Mägel der KI eben gerade mangels dieser Geistesschwäche nicht erkennen können. Auf deutsch: KI wird uns jede Menge Speck mit Vanillesauce servieren und viele werden den Stuss auch noch toll finden.

    1. „…haben die jungen Nerds offenbar die Liste mit den geschmacklichen NoGoes einfach und dummerweise vergessen“
      Sehr gut erkannt! und gut auf den Punkt gebracht. Wahrscheinlich dachten die jungen Nerds nämlich, solch eine Liste würde schon irgendwo im Internet existieren und die KI hätte die demzufolge ja auch schon mit den Trainingsdaten gelernt. Pech.
      Alte philosophische Weisheit: „Wir können nicht wissen, was wir nicht wissen.“
      Meine Ergänzung: um Nichtwissen einzugrenzen und zu erfahren, braucht es Wissenschaft als Suche nach dem Unbekannten. Und nicht diese spezielle Sorte Wissenschaft als Auftrag für mehr Profit.

      1. Was ist wenn die Programmierer der KI sagt, dass Erdbeeren mit Senfsauce was feines, respektive ein nuklearer Winter durchaus erstrebenswert sind?
        Außerdem, kommt noch die psychologische Komponente hinzu, das die dann immer sagen können, das die KI so, oder so das entschieden hat, und das alles sicher seine Richtigkeit hat und man daran nichts ändern kann oder auch will…

        1. Darauf weise ich schon seit Jahren hin: der Besitzer (Finanzierer) der KI bestimmt, was diese weiß, und auch was und wie sie antwortet. Er gibt den Auftrag an die Fachleute (Programmierer, Systemtechniker) mit SEINEN Präferenzen und Spezifikationen.
          Missbrauch lässt sich eigentlich nur durch komplette Offenlegung von Code und Lerndaten einigermaßen verhindern (dann bleiben nur noch die Irrtümer als Fehlerquelle übrig – die sind leider kaum vollständig auszurotten.
          Gegen die Offenlegung steht natürlich das heilige Privateigentum.
          Meine Schlußfolgerung: diese Technologie passt nicht zu diesem Gesellschaftssystem, Mißbrauchsgefahr und Schadenspotential sind entschieden zu hoch.

      2. This is what we get:

        Blank
        Eine verzweifelte Autorin, die an einer Schreibblockade leidet, geht in ein komplett mit künstlicher Intelligenz betriebenes Resort, um sich dort auszukurieren und ihre Kreativität wiederzufinden. Doch durch einen Softwarefehler wird sie in Blank in ihrem Zimmer eingesperrt und ist von der Außenwelt abgeschnitten.

  13. Prof. Zec spricht beim Output der KI von Halluzinationen. Wenn man es genau betrachtet, sind es aber nur Kopien der erlernten (einprogrammierten) Daten oder Datenschnipsel, deren Passwahrscheinlichkeit zur Anfrage mit wahrscheinlichkeitsmathematischen Methoden berechnet wird und die neu kombiniert zu einer möglichst passenden Antwort werden. Erst wenn die KI (z.B. bei faktualisierten Texten) hart nach Quellenbelegen befragt wird, kann man erkennen, wo die Grenzen sind und ob nicht faktualisierte Datenschnipsel kombiniert wurden, die man dann als Halluzinationen deklarieren kann. Hier rächt sich genau der Fakt, daß die KI einen Text (z.B. einen Fachartikel) nicht als Gesamtheit kontextuell betrachtet, sondern in Informationspakete (Schnipsel) zerlegt, die einzeln verarbeitet und gespeichert werden. Das werden wohl erst KI der nächsten Generationen schaffen, da kann man dann schon eher von „Verständnis“ (=kontextueller Zusammenhang des Inhalts wird erfasst) sprechen.

  14. Ich bin schon gespannt, wann es die ersten mit einer ordentlichen KI ausgestatteten Sexpuppen gibt. Dass es hierfür einen Markt geben könnte hat beispielsweise der Film HER (2013) angedeutet.
    F.Rötzer hat ja eigentlich auf diesem Gebiet (Sexpuppen im Allgemeinen) Expertise:
    https://www.telepolis.de/features/Von-der-Lust-oder-dem-Elend-beim-Sex-mit-Puppen-oder-Maschinen-3988770.html
    Also wann ist gewiss unklar, aber das OB ist sicher. Dann werden sich Gerichte mit wegen Vergewaltigung klagenden Sexpuppen auseinandersetzen müssen und Ethikkommissionen und Ärzte mit der Frage, unter welchen Umständen Abtreibungen bei Sexpuppen erlaubt sind.

  15. Diese „Plapper“-Roboter geben nur einprogrammierte Fakten von sich. Aber immerhin politisch korrekt. Der jeweilig herrschenden politischen Ideologie folgend. Bewusstsein und Intelligenz sind von der zugrunde liegenden Materie – i.e. der grauen Gehirnsubstanz – unabhängig. Den Zustand der Singularität zu erreichen wie es manche Futurologen oder Visionäre erhoffen und ersehnen mag sich dann als Alptraum erweisen. Die Offenbarung in der Bibel spricht von dem „Bild“ das redete. Am Ende wird es die Abschaffung des Menschen sein. Man lese das Buch von C.S. Lewis.
    Was ist Bewusstsein? Hierzu ein sehenswerter ARTE Film zu Tukdam. Das ist ein bestimmter Phänomen, wenn meditierende Mönche sterben. Wir wissen ggw. überhaupt nicht was wir nicht wissen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert