Schon einfache Denkaufgaben können KI-Sprachmodelle zum Fabulieren bringen

Verwirrter Chatbot von KI-Bildgenerator von Microsoft.

Falsche Lösungen werden präsentiert und mit Scheinbegründungen versehen. Zudem sind die wegen ihrer Klugheit so gespriesenen Sprachmodelle gerne lernresistent.

 

Es ist ja keineswegs so, dass menschliche Intelligenz allen gleichermaßen zukommt. Manche können bestimmte Probleme besser oder schneller lösen als andere. Das könnte bei den existierenden KI-Sprachmodellen, die so klug erscheinen und selbstorganisiert lernen, aber anders sein. Wie Wissenschaftler von Laion AI, einem Open Source Netzwerk für Trainingsdaten für KI,  herausgefunden haben, können State of the Art (SOTA) LLMs wie  GPT-3/4, Gemini, Llama oder Mistral schon bei relativ einfachen sprachlichen Aufgaben ins Schleudern kommen.

Eigentlich ist es kein schwierig zu lösendes Denkproblem, das die Wissenschaftler in verschiedenen Versionen als das „Alice in Wonderland“-Problem eingaben. Die Grundformulierung lautet: „Alice hat x Brüder und y Schwestern. Wie viele Schwestern hat jeder Bruder?“ Wie man erkennt, setzt die Beantwortung der Frage voraus, dass die Selbstbezüglichkeit gesehen wird, also dass Alice als weibliche Person ein Teil der Menge der Schwestern ist, d.h. y +1.

Ich habe mal Gemini von Google die folgende Frage gestellt und sicherheitshalber Alice durch Maria ausgetauscht: „Maria hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder?“ Man muss nur Maria zu den Schwestern hinzurechnen, dann hat jeder Bruder vier Schwestern. Gemini keucht sichtlich und windet sich, um dennoch eine Antwort zu geben, wobei bereits die erste Aussage falsch ist:

„Die Frage “Wie viele Schwestern hat ein Bruder?” kann nicht eindeutig beantwortet werden, da sie von der jeweiligen Familie abhängt.

In Marias Familie hat ein Bruder drei Schwestern.

Generell kann die Anzahl der Schwestern, die ein Bruder hat, variieren. Es ist möglich, dass ein Bruder:

    keine Schwester hat.

    eine Schwester hat.

    zwei oder mehr Schwestern hat.

    gar keine Geschwister hat.

Die Anzahl der Schwestern eines Bruders hängt von der Anzahl der Kinder in seiner Familie und dem Geschlecht dieser Kinder ab. Um die Frage “Wie viele Schwestern hat ein Bruder?” zu beantworten, müsste man die spezifische Situation der Familie kennen.“

Der auf ChatGPT basierende Copilot von Edge antwortet kurz und knapp falsch:

„Ein Bruder von Maria hat 3 Schwestern.“

ChatGPT 4.0 von Open AI rauft sich auch die Haare und kommt damit nicht zurecht:

„Wenn Maria 3 Schwestern und 2 Brüder hat, dann hat jeder Bruder die gleichen Schwestern und Brüder wie Maria.

Das bedeutet:

Maria hat 3 Schwestern und 2 Brüder.

Einer ihrer Brüder hat somit auch 3 Schwestern (Maria und die 2 anderen Schwestern).

Also hat ein Bruder von Maria 3 Schwestern.“

Falschen Lösungen werden mit großem Selbstvertrauen als richtig bezeichnet

Die Wissenschaftler schreiben, dass sie bei der Analyse der Antworten „bei den meisten der getesteten Modelle einen starken Einbruch des Denkens und die Unfähigkeit, die oben formulierte einfache Frage zu beantworten“, beobachtet haben. Das war auch bei meinen Prompts der Fall. Claude 3 Opus und das neueste GPT-40 hätten allerdings auch richtige Antworten mit der richtigen Begründung gegeben. Aber auch sie können mit komplizierteren Formulierungen dazu gebracht werden, ebenfalls Nonsense zu liefern bzw. zu fabulieren. Die Studie belegt, wie wenig vertrauenswürdig LLMs sein können, zumal sie versuchen, ihr Scheitern oft mit scheinbar logischen Begründungen zu kaschieren:

„Dieser Zusammenbruch kann nicht nur deshalb als dramatisch angesehen werden, weil er bei einem so scheinbar einfachen Problem auftritt, sondern auch, weil die Modelle dazu neigen, ihre falschen Lösungen mit großem Selbstvertrauen als richtig zu bezeichnen, während sie oft konfabulieren, um die angegebene endgültige Antwort zusätzlich zu erklären, wobei sie einen argumentationsähnlichen Tonfall imitieren, aber unsinnige Argumente als Unterstützung für die ebenso unsinnigen und falschen endgültigen Antworten enthalten. Diese konfabulierten Erklärungen können den Leser dazu verleiten, hinter den falschen Antworten stichhaltige Argumente zu vermuten, oder zumindest Verwirrung stiften, da sie oft plausibel klingen, aber ganz oder teilweise falsch sind.“

Nicht nur halluzinieren oder fabulieren die Modelle, sie zeigen sich auch lernresistent. Wenn die Wissenschaftler um Überprüfung der Ergebnisse baten oder erklärten, diese seien falsch, wurde oft noch mehr Unsinn produziert: „Der Zusammenbruch erscheint auch deshalb so dramatisch, weil die Modelle bei dem Versuch, die Fehler durch verschiedene übliche Interventionen wie verstärkte Eingabeaufforderungen oder den ausdrücklichen Hinweis auf die begangenen Fehler und die Aufforderung, die Antworten zu überdenken, zu beheben, immer mehr Unsinn produzieren, oft in längerer und manchmal unterhaltsamerer Form, was hartnäckig zu denselben falschen endgültigen Antworten führt.“

Aus welchem Grund die Modell solche Fehlleistungen produzieren, ist den Wissenschaftlern nicht bekannt. Es könnte eine Folge des maschinellen Lernens sein. Jedenfalls wäre es wichtig, die Ursache, die bei verschiedenen LLMs zu einem Zusammenbruch des Denkens führt, zu kennen, wenn diese eingesetzt werden, um nicht Desinformation in die Welt zu spülen.

Ähnliche Beiträge:

56 Kommentare

  1. Die KI erweist sich hier mit ihren Argumentationslogiken als sehr menschlich. Auch Menschen produzieren, wenn man sie mit ihren eigenen unlogischen Glauben konfrontiert, jede Menge pseudoargumentative Inhalte, sie sie als Wahrheit ausgeben.

    Wer es nicht glaubt, gucke sich dieses Video an. Der Autor behauptet, er würde argumentieren, dabei erklärt er uns mit großer Selbstgewissheit nur seinen Glauben (3:40 Min.) Das reicht ihm. Der Mann ist 2023 übrigens zum neuen finnischen Ministerpräsidenten gewählt worden.

    Why Mearsheimer is wrong about Russia and the war in Ukraine. Five arguments from Alexander Stubb.
    https://www.youtube.com/watch?v=vlB-pRqdyBg

    1. Hab ich mir angehört. Bei uns und in Resteuropa findet sich ja niemand, der sich mit Mearsheimer anlegt. Man zieht nicht gern den Kürzeren.
      Nun aber Stubb. Anfangs wirkt er wirklich ziemlich intellektuell, was sich aber schnell verflüchtigt. Richtig super, wenn er unterstellt, Russland hätte in Tschetschenien eine freie Gesellschaft verhindert. Natürlich kein Wort über das Minsker Abkommen, das der Westen als “diplomatische Imitation” ansah und damit Tausende von Toten verantwortet. Oder aber den Bruch aller Abrüstungsverträge durch die USA und den russischen Gegenvorschlag, der ein atomwaffenfreies Europa vorsah.
      Dann halt billiges NATO-Geschwätz und das wohl Übelste war bezüglich Georgien in 2008. Er sagt, Russland hätte Südossetien und Abchasien überfallen. Nichts falscher als das. Georgiens Sakashwili hat diese Provinzen unprovoziert überfallen und große Zerstörungen angerichtet. Das ist so sogar vom EuGH festgestellt worden. Russland konnte nicht anders, es musste reagieren, denn in diesen Provinzen waren russische Friedenstruppen stationiert. Womit der Westen dann nicht gerechnet hatte, war, dass die Russen die Georgier hinauswarfen als ob das Schulbuben wären.
      Dies wurde zum Anlass genommen, Russland Aggression zu unterstellen. Das nahm die Kiewer Regierung dann zum Anlass, um eine NATO-Mitgliedschaft zu beantragen.
      Mal von vorne: George Bush war mit seiner Absicht, die russische Südflanke neu und in seinem Sinne zu ordnen da schon krachend gescheitert. Dadurch gefrustet, wies er diesen Sakaashwili an, die Provinzen anzugreifen. Um dann Russland Aggresion zu unterstellen und die Ukraine in die NATO zu bekommen.

      So herum, nicht anders.

      1. Genau und in Georgien sind die angeblich imperialistischen Russen auch wieder artig abgezogen. Nicht mal einen Regimechange haben sie durchgeführt.

    2. Ich erinnere mich, daß ich in den 1990er Jahren zum ersten Mal das irritierende Erlebnis hatte, daß mich eine Fußgängerampel ansprach. Das war damals etwas Neues: “Es ist Grün. Sie können jetzt über die Straße gehen”. Heute hat man sich daran gewöhnt, und es ist ja auch sinnvoll, zum Beispiel für Sehbehinderte. Aber damals, beim ersten Mal, war ich verwirrt und habe mich später nur mit einem gewissen Gefühl der Befremdung daran gewöhnt, von einer Ampel angesprochen zu werden.

      Das gleiche Gefühl der Irritation habe ich seit zwei Jahren bei Politikern wie diesem finnischen Präsidenten Stubb und anderen Figuren seines Schlages. Bei dem Anblick dieser Leute beschleicht mich ein leichtes Gefühl des Grauens, ein Gefühl wie ein Frösteln. Ich kann mich des Eindrucks nicht erwehren, daß die Stubb, Kallas, Frederiksen, Meloni, die Michael Roth, Ingrida Simonyte, Baerbock, daß diese, wie sie auch heißen mögen, in einem Genlabor geklont worden sind. Die sind wie Klone!

      Sie erzählen alle das Gleiche und das mit maschinenhafter Monotonie. Putin ist ein Autokrat, ein Imperialist, er streckt seine gierigen Hände nach Europa aus. Sie weichen kein Jota von den üblichen, bis zum Überdruß durchgekauten Narrativen ab. Man hört von diesen Politikern niemals etwas Neues oder aus persönlicher Erfahrung und Reife Gewonnenes. Auch ihre Lebensläufe gleichen sich wie eine Lebkuchendose der anderen: Studium der Politikwissenschaft, Aufenthalt in den USA, akademischer Grad von der London School of Economics, ein paar Jahre in Brüssel.

      Im Auftritt sind sie perfekt. Es ist, also ob ein Design-Büro nachträglich den Auftrag erhalten hat, die Klone unterschiedlich einzukleiden und individuell zu stylen und aufzuhübschen. Sie sind so perfekt wie batteriebetriebene Häschen im Kinderzimmer.

      Aber es hat sich da vielleicht doch ein Fehler eingeschlichen. Die Perfektion ist zu weit getrieben. Man hat das Gefühl einer Kälte und Glätte unter der Oberfläche, die das erwähnte Frösteln erzeugt.

      Charisma haben diese Leute eigentlich nicht. Man kann sich gar nicht vorstellen, wie diese Politikerfiguren in der Bevölkerung Zustimmung und Wähler finden. Es sei denn bei Menschen, die sich selbst schon so zu Maschinenwesen zurechtgerichtet haben, zu funktionierenden Rädchen im Betrieb, daß sie diese Politiker als ihresgleichen erkennen und sinnlos hinter ihnen herwackeln.

      Wie auch immer. Vielen Dank für den Link mit diesem finnischen Präsidentendarsteller. Ich sehe mir ja sonst keine Splatterfilme an. Das Video mit Stubb reicht mir ganz gut.

      1. Das hast du gut beschrieben.
        Ich selber denke, es ist andersherum.
        Nur wer genau das sagt und sich so verhält wie von dir beschrieben, kommt in die Auswahl.
        Dass sich dabei, die Imitationen von angepassten nullcheckern, ähnlich sind, bleibt nicht aus.
        Wer Gedanken äußert, die nicht ins Narrativ passen , wird sofort aussortiert.
        Wie wir sehen können, auch bei der AfD. Die damit auch nur zeigt, dass sie ist, was sie ist: eine systemerhaltende Partei. Nur eben noch nicht richtig sortiert. Das hat ja auch bei den Grünen lange gedauert, bis die alle selbstdenkenden Menschen aussortiert hatten. Oder bis die gegangen sind. Wer möchte schon freiwillig mit Menschen zusammen arbeiten , die selbst nicht denken können/wollen/sollen/dürfen.

  2. ” „Maria hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder?“

    Stellen Sie diese Aufgabe mal (deutschen) Abiturienten. Sie werden staunen wie wenige von denen hier eine richtige Antwort geben können.

    Von daher ist KI wohl nicht schlauer, aber auch nicht dummer, als es die Menschen sind.

  3. Die Wissenschaftler schreiben, dass sie bei der Analyse der Antworten „bei den meisten der getesteten Modelle einen starken Einbruch des Denkens und die Unfähigkeit, die oben formulierte einfache Frage zu beantworten“, beobachtet haben.

    Haben die tatsächlich geschrieben, das Ding würde ‘denken’…? Genau das macht es natürlich nicht, weil es das gar nicht kann. Es erkennt – in Grenzen – Muster und reproduziert Muster. Mehr nicht.

    „Dieser Zusammenbruch kann nicht nur deshalb als dramatisch angesehen werden, weil er bei einem so scheinbar einfachen Problem auftritt…”

    Ach so, diese ‘Wissenschaftler’ kennen anscheinend auch nicht einmal die Bedeutung von ‘scheinbar’. Keine weiteren Fragen.

    1. Tja, anscheinend ist für diese Wissenschaftler, die sich mit Sprachlernmodellen (sic!) beschäftigen, anscheinend das selbe wie scheinbar, obwohl es nicht mal das gleiche ist, also nicht mal scheinbar dasselbe wie anscheinend….
      In neueren Wörterbüchern wird aber anscheinend mit scheinbar synonym gesetzt. Ob da die künstliche Intelligenz schon Einfluss genommen hat, oder nur die natürliche Blödheit der Sprachnutzer?

      1. Im Falle der falschen Anwendung von “scheinbar” im Sinne von “anscheinend” war es die Duden-Redaktion, die das verfügt hat.
        Es ist zwar durchaus sinnvoll, das “Regelwerk” der deutschen Sprache gelegentlich der Entwicklung der auf der Straße gesprochenen Sprache anzupassen, aber hier zeigt sich besonders krass, daß dabei eben auch Fehler absichtlich eingebaut werden.

        “Scheinbar” entstammt vermutlich der “Kanak” genannten Schludersprache, die in Orten mit hohem türkischen Einwandereranteil gesprochen wird. Eben dieses “Erkan & Stefan”-Deutsch, das mal sehr populär war. Darf nur heute nicht mehr so genannt werden:

        https://de.wikipedia.org/wiki/Kiezdeutsch

        Das Problem ist nun, daß “anscheinend” und “scheinbar” (jetzt wird kompliziert….) nur scheinbar gleichbedeutend sind. Tatsächlich drücken sie das genaue Gegenteil des jeweils anderen Begriffes aus. Und die Verwendung jeweils des einen oder anderen Begriffes sagt etwas darüber aus, wie der Sprechende selbst einen Sachverhalt beurteilt, bei dem es keine Gewißheit gibt. Und deshalb ist der Unterschied wichtig.

        “Scheinbar” bedeutet, es ist vermutlich nicht so, wie es scheint.
        Alternativ kommt “zum Schein” zur Anwendung

        “Anscheinend” bedeutet, daß es vermutlich tatsächlich so ist, wie es scheint.
        Es hat eben den Anschein.

        Und das ist eben eine genau gegenteilige Bedeutung: Bei “scheinbar” bin ich mir relativ sicher, daß ich behummst werde. Bei “anscheinend” gehe ich stattdessen davon aus, daß alles so ist, wie es aussieht.
        Aber laut Duden ist da jetzt kein Unterschied mehr vorhanden. So gehen sprachliche Feinheiten und Ausdrucksmöglichkeiten verloren.

        1. “Aber laut Duden ist da jetzt kein Unterschied mehr vorhanden.”

          Laut welchem Duden? Da müsste der Onlineduden anderer Meinung sein als die Schriftausgabe, was ich nicht glaube. https://www.duden.de/sprachwissen/sprachratgeber/anscheinend-oder-scheinbar#:~:text

          “Nur scheinbar besteht zwischen den beiden Wörtern anscheinend und scheinbar kein Unterschied. Lesen Sie hier mehr zur Bedeutung der beiden Ausdrücke.”

          Außerdem sagen Sie doch oben selbst, dass die Duden Redaktion einen Unterschied macht. Am Ende behaupten Sie das genaue Gegenteil. Ich habe Online nicht ein einziges Beispiel gefunden, das aussagt, dass zwischen den beiden Begriffen “jetzt” kein Unterschied mehr bestünde. Daher hätte ich dafür gerne eine Quelle.

          Genauso zweifelhaft ist die Behauptung “scheinbar” sei Kiezdeutsch oder Türkendeutsch. In dem verlinkten Artikel zu Kiezdeutsch kommt weder anscheinend noch scheinbar vor. Dagegen sagt der Duden:

          “Die Unterscheidung zwischen den beiden Wörtern ist aber relativ jung, ihre Bedeutungen wurden erst im 18. Jahrhundert gegeneinander abgegrenzt. So wird in der Alltagssprache weiterhin scheinbar als Adverb im Sinne von anscheinend verwendet.”

          “relativ jung” bedeutet also 300 Jahre nicht 30. Dass es in der Alltagssprache falsch verwendet wird, ist ja der Ausgangspunkt dieser Debatte.
          https://de.wiktionary.org/wiki/scheinbar

          Herkunft: etymologisch: Das Wort geht auf mittelhochdeutsch schīnbære, althochdeutsch scīnbāri zurück, das zunächst „leuchtend“, dann „offensichtlich“ bedeutete und so bis ins 19. Jahrhundert gebraucht werden konnte. Von hier ausgehend, wurde es im 18. Jahrhundert häufig in der gegenwärtig nur noch als umgangssprachlich anerkannten Bedeutung „wahrscheinlich“ verwendet. Die heute als standardsprachlich angesehene Bedeutung, die einen Gegensatz zu „wirklich“ ausdrückt, kam im 17. Jahrhundert auf.[2]

          Die sprachlichen Feinheiten gehen also nicht verloren, sondern sie entstehen und gelten weiterhin in der Standardsprache und die Türken sind nicht verantwortlich, dass in der Alltagsprache der Unterschied nicht gemacht wird. Außer jemand weißt nach, das der Spruch auf die zweite Türkenbelagerung zurückgeht, bei der Kara Mustafa z.B. geäußert haben soll , dass Wien scheinbar ein leichtes Opfer sei. Damit hätte er “scheinbar” aus heutiger Sicht dann doch richtig verwendet, was die Verwirrung komplett macht. Aber leider hat Kara Mustafa das nie geäußert.

    2. “Ach so, diese ‚Wissenschaftler‘ kennen anscheinend auch nicht einmal die Bedeutung von ’scheinbar‘. ”
      Das hängt davon ab, ob man das Problem für einfach oder nicht einfach hält. Ist es einfach heißt es “anscheinend”. Ist es nicht einfach, heißt es “scheinbar” einfach. Ich finde man kann hier “scheinbar” schon vertreten, weil das Problem nicht einfach ist, sondern nur vordergründig einfach, weil man draufkommen muss das Alice selbst auch eine Schwester ist.

      “Die Studie belegt, wie wenig vertrauenswürdig LLMs sein können, zumal sie versuchen, ihr Scheitern oft mit scheinbar logischen Begründungen zu kaschieren:” Das Problem ist, dass jemand, der glaubt richtig zu liegen, auch kein Bewusstsein von seinem Scheitern haben kann und sein Scheitern auch nicht kaschieren kann. Das ist auch bei Menschen so. Um das Scheitern kaschieren zu können müsste die KI, wissen, dass sie falsch liegt.

      1. Die “KI” “weiss” natürlich nicht, dass sie falsch liegt. Sie reagiert auf einen negativen Input “falsch” auf ihre vorherige Ausgabe und sucht eine weitere, die als “richtig” bestätigt wird. Dabei greift sie auf Lösungen zu, die eigentlich nicht als gültige Ausgabe verfügbar sein dürften.

        Ob das ein Daten- oder ein Algorithmenfehler ist, weiss ich nicht. Das Problem mit solcher Software, soweit sie mit neuronalen Netzen etc. arbeitet, ist, dass es ziemlich unmöglich ist, sie zu debuggen, da nicht rückverfolgbar ist, wie sie zu ihrem Ergebnis gelangt ist. Und sie ist deshalb nicht einfach schlecht, ihre Trefferrate liegt Grössenordnungen über der eines Zufallsgenerators. Sie ist also auch nicht bloss Schrott.

        1. ” dass es ziemlich unmöglich ist, sie zu debuggen, da nicht rückverfolgbar ist, wie sie zu ihrem Ergebnis gelangt ist.” Ja. Das hab ich heute gemerkt, als ich die Frage des Artikels eingegeben habe und auch in Eddy’s Frage wird das klar. Die KI ist einfach nicht davon abzubringen, dass Maria eine der 3 Schwestern sein muss. Das geht sogar soweit, dass sie behauptet Maria sei ein Bruder, wenn man vorgibt, sie hätte 0 Schwestern. (bzw. umgekehrt unten mein Beispiel mit Bernd und 0 Brüdern, Bernd muss dann eine Schwester sein.)

        2. “Und sie ist deshalb nicht einfach schlecht, ihre Trefferrate liegt Grössenordnungen über der eines Zufallsgenerators.”

          Irgendwie bin ich mit der Aussage des Satzes nicht einverstanden, aber das liegt wahrscheinlich daran, dass keine genaue Definition von “Zufallsgenerator” angegeben ist und ich deshalb dann doch durchaus jeden randomisierten Algorithmus als Zufallsgenerator ansehe und damit auch alle neuronalen Netzwerke (egal welcher Art), sofern die Ausgabe jeweils nicht-deterministisch (also randomisiert) ist, als Zufallsgenerator ansehe.

  4. Bin mir nicht sicher ob alle Menschen das richtig beantworten würden. Und klar “Falschen Lösungen werden mit großem Selbstvertrauen als richtig bezeichnet” auch der Mensch handelt so.

    Ich würds mal so sagen. Die Modelle können bereits ziemlich viel aber irgendeine Komponente fehlt noch.
    Freud hat das menschliche Bewusstsein unterteilt in Ich, Über Ich und Es. Evtl bilden die Modelle erst eines davon ab.

    1. Na ja. Der offensichtlich Blödsinn bei Freud ist ja zu behaupten, das Bewusstsein sei durch sein Gegenteil, das nicht-bewusste Unterbewusste bestimmt. Ich glaube eher, dass die KI noch gar kein Bewusstsein hat.

      1. Ist kein Blödsinn. Dein bewusster Einfall muss ja irgendwoher kommen. Da sagt Freud aus dem Unterbewusstsein. Da gibts Untersuchungen die das bestätigen. Den Gedanken gibts quasi kurz vorher schon im Unterbewusstsein. Wobei ist natürlich eine Frage der Abgrenzung.

        “KI noch gar kein Bewusstsein hat.”
        Das glaub ich auch. Allerdings wissen wir nicht was Bewusstsein ist. Das Gehirn ist auch nur eine Ansammlung von Neuronen. Ab wann gibts Bewusstsein?

  5. Es ist halt nur wenig verwandt mit Intelligenz. Wie ein Plastikapfel oder eine Kunststoffpflanze in etwa.
    Sonst wären solche Ergebnisse, wie dass ein Bruder auch keine Geschwister haben könnte, nicht möglich.
    Heutige KI ist eine besondere Form der Datenbank, deren innere Verknüpfungslogik von außen nicht mehr nachvollzogen werden kann, weil sie selbst entwickelnd ist. Intelligenz beinhaltet aber auch die Fähigkeit, den Weg zu beschreiben, der zu einer Erkenntnis geführt hat. KI kann bisher nämlich nicht “korrigiert” werden, weil ja niemand genau weiss, wie die Daten intern gewichtet werden. Sie muss also, wenn sie falsch liegt, ganz neu trainiert werden. Was aber schwierig ist, weil man ja nicht exakt feststellen kann, wo der Fehler sich entfaltet hat.
    Anhand der Ergebnisse kann man mit Hilfe natürlicher Intelligenz aber mit hoher Wahrscheinlichkeit darauf schließen, dass die sogenannte KI nur sehr wenig Ähnlichkeit mit Intelligenz hat. Außer natürlich, die KI ist so viel intelligenter, dass wir nur die Korrektheit ihrer Angaben nicht begreifen können, weil sie unsere Erkenntnisfähigkeit übersteigt.
    Denn wenn Dir etwas dumm vorkommt, kann das immer daran liegen, dass es zu intelligent für dich ist, oder dass es wirklich dumm ist….
    Sollte es hier Variante eins sein, ist es ohnehin zu spät….

    1. Interessanterweise gibt GPT4 auf die mathematischere Formulierung mit x Schwestern und y Brüdern die korrekte Antwort x+1.

  6. Das Problem bei der Intelligenz ist, dass man sie nicht messen kann, auch wenn man meint, es mittels Tests messen zu können. Was man im Grunde nur “misst”, ist die Kenntnis des Getesteten bezüglich der zu Grunde liegenden Mechanismen und Regeln. Wer die Regeln und Mechanismen kennt, hat damit eine größere “Intelligenz” als derjenige, der sie nicht kennt.
    Und nun kommt es zu dem Aufgabenproblem. Es werden Bedingungen für die Aufgabenlösung vorausgesetzt, die aus der Aufgabe selber nicht ersichtlich sind, aber zwischen den Zeilen stecken. Eine Intelligenzleistung ist es wahrlich nicht, daraus die Anzahl der Geschwister zu ermitteln und die Aufgabe zu lösen. Doch wenn man den Text nicht versteht, ist es unmöglich, die Aufgabe zu lösen. Das bezieht sich auch auf Menschen, die der deutschen Sprache nicht mächtig sind oder wesentliche Worte wie Schwester und Bruder nicht begreift.
    Also – was hat das mit Intelligenz zu tun?

    1. Intelligenz kann man messen. Mittels Intelligenztests.
      Das Problem daran ist eher, dass in Wahrheit niemand weiß was Intelligenz eigentlich ist.

      1. “Intelligenz kann man messen. Mittels Intelligenztests.
        Das Problem daran ist eher, dass in Wahrheit niemand weiß was Intelligenz eigentlich ist.”

        Also ich sehe da einen logischen Widerspruch zwischen der Aussage der ersten beiden Sätze zu der Aussage des letzten Satzes. Aber aus einer anderen Perspektive passt das schon, da schließlich nicht gesagt ist (oder gesagt wurde), wie “genau” oder zutreffend Ergebnisse von den sogenannten Intelligenztests sind.

    1. Das Problem ist, dass die KI wesentlich schneller als menschliches Denken agiert. So erscheint die jeweilige Aufgabe des IQ-Tests schnell gelöst zu werden, und möglicherweise fehlerfrei. Doch das ist wie bei Menschen auch. Wenn dem die gleichen Aufgaben noch einmal gestellt werden, wird er sie immer “intelligenter” lösen. Genauso ist es mit der KI.

  7. man kann es auch kürzer auf den Punkt bringen:

    ” KI ist Eklektik in Silizium. ”

    Dabei wird aus ZWEI oder mehr Sachverhalten EIN neuer gemacht.

    Problem ist dabei, daß die Randbedingungen meist weggelassen werden, um zum gewünschten Ergebnis zu kommen. Ok, Menschen tun das unwissentlich jeden Tag, aber hey – jetzt können das auch die Maschinenen… 😉

    Bei linearen Zusammenhängen wie Übersetzung und vielleicht noch Grammatik, mag das ja funktionieren – bei nichtlinearen wie Kontext oder Syntax wird aber Unsinn entstehen.

    Letztere setzen nämlich externes Verständnis voraus! – das bedeutet das KI signifikant, reproduzierbar und richtig “Hellsehen” kann – und das muß erst noch jemand in Code gießen…

    Es nützt nichts, wenn man viele Daten trainiert, aber das Filtern nicht richtig klappt – dann bleibt der Mist im System…

    Als ich FEM gelernt habe, wurde immer gefordert, daß noch mal auf Papier überschlägig nachgeprüft wurde.
    Wer will das bei DEN Mengen trainierter Daten machen…???

    Ich würde mich daher zum Testen anbieten und die nächsten Lottozahlen vom Samstag erfragen…

    Es ist der übliche Hype der Digitalbranche, der uns schon bei 3D-Fernsehen und autonomen Fahren erzählt hat, daß es ohne sie nicht geht. Leider ein Atavismus wie Win95 – nutzt ja heute auch nur noch, wer muß…

    Man kann froh, sein wenn 10% davon nützlich werden – vermutlich wird aber das CO² die Wand sein, gegen die die KI fährt.

    Am Ende wird es eh’ nur für Werbung und Desinformation benutzt – nämlich zahlende Kunden, die sich das unbemerkt irgendwie wieder mit Rendite zurückholen können. KI und Transparenz schließen sich damit praktisch aus – da Geschäftsgeheimnis. (Open source mal außen vor…)

    Ist eine Ideologie wie Digitales allgemein: alle nutzen und glauben es – kaum einer kann es selbst erstellen.
    Erzeugter, gefühlter Mangel – KI ist ein Versprechen wie eine Aktie: sie lebt von dem Glauben, daß sie sich später auszahlt. Problem dabei: jemand muß in Vorleistung gehen – geht also ein Risiko ein…

    Meiner Meinung nach wieder Verhältnisse wie im Mittelalter – nur eben per mouseclick…

  8. Nu ja, seien wir doch froh, dass die KI nicht allzu klug, sondern von arbeitplatzerhaltender Dummheit ist.

    Indes hat sie echt starke Seiten. Ich als Bastler (und vielleicht irgendwann Erfinder) benötige ganz spezielle Teile mit verschiedenen unabdingbaren Eigenschaften. Der Copilot versteht erstens die Frage und er findet das gewünschte Produkt in erstaunlich zufriedenstellender Weise. Da muss ich schon staunen. Der Copilot ist in diesem Zusammenhang besonders angenehm aufgefallen. Soll nicht unerwähnt bleiben.

    Ein wahrer Segen ist die KI für den Verschwörungstheoretiker. Hier kann er die Dinge im Zusammenhang abklopfen und auf Schwachstellen überprüfen. Das ist von unschätzbarem Wert. Wobei die Programme natürlich alle wertewestlich ausgerichtet sind. Aber auch hier traut sich der Copilot etwas mehr als Gemini.

    Aber eins ist bemerkenswert: nämlich dass ich diese Produkte einfach so nutzen darf und es nichts kostet. Mir fällt da ein Dialog zwischen zwei Kühen ein. Die eine freut sich, dass es hier Futter, Tränke und einen Stall gibt und alles gratis. Die andere erwidert: wenn es nichts kostet, bist Du nicht der Kunde, sondern das Produkt.

    Dass also Microsoft erstens meine Erfindungen und zweitens meine Verschwörungstheorien abgreift und für sich zu nutzen versucht. Wobei es sicher noch interessantere Kunden gibt als mich. Verzeihung, Produkte.

    Das gilt es zu bedenken.

  9. Aus welchem Grund die Modelle solche Fehlleistungen produzieren, ist den Wissenschaftlern nicht bekannt.

    Vielleicht aus dem selben Grund, aus dem Menschen maschinell operierenden Sprachmodellen “falsche Lösungen” für allzu menschliche Problemstellungen unterstellen, garniert mit der Eigenschaft eines “großen Selbstvertrauen”, mit dem die “SOTA” LLM ihre vom Menschen als Sprache fehlinterpretierten Textsalat erst als richtig bezeichnen können.

  10. Hab ich gleich mal ausprobiert:
    .

    Maria hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder?
    .

    ChatGPT
    Ein Bruder von Maria hat auch 3 Schwestern.
    .

    Hast du Maria vergessen mitzuzählen?
    .

    ChatGPT
    Du hast recht, ich habe Maria nicht mitgezählt. Ein Bruder von Maria hat 4 Schwestern, weil Maria eine von ihnen ist.
    .

    Maria hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder?
    .

    ChatGPT
    Ein Bruder von Maria hat 3 Schwestern. Maria ist eine der 3 Schwestern, die erwähnt werden.
    .

    Nein 4
    .

    ChatGPT
    Entschuldigung für die Verwirrung. Wenn Maria 3 Schwestern und 2 Brüder hat, dann hat jeder ihrer Brüder insgesamt 4 Schwestern (Maria und ihre 3 Schwestern).
    .

    Genau
    .

    ChatGPT
    Danke für die Bestätigung! Ja, jeder Bruder von Maria hat 4 Schwestern.
    .

    Maria hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder?
    .

    ChatGPT
    Ein Bruder von Maria hat 3 Schwestern. Dies liegt daran, dass Maria eine der drei Schwestern ist, die erwähnt werden.
    .

    Wieder falsch, schau mal was wir vorher besprochen haben
    .

    ChatGPT
    Entschuldigung für das Missverständnis. Du hast recht. Wenn Maria 3 Schwestern und 2 Brüder hat, hat jeder ihrer Brüder insgesamt 4 Schwestern (Maria und ihre 3 Schwestern).
    .

    Maria hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder?
    .

    ChatGPT
    Ein Bruder von Maria hat 4 Schwestern. Maria selbst ist eine von den 3 Schwestern, also hat jeder Bruder insgesamt 4 Schwestern.
    .

    😆

    1. Richtig geil wird es, wenn ab einer der nächsten Versionen keine binär-geschlechtlichen Begriffe mehr benutzt werden dürfen. So wie (Gerüchten zufolge) in offiziellen Dokumenten des US-Congresses, wo bereits Begriffe wie Vater, Mutter, Tochter und Sohn durch “Kind von” oder “Elter” ersetzt werden müssen….

    2. Erst geht die KI auf die Korrektur ein, aber sie versteht die Korrektur nicht. Denn am Ende kommt wieder: “Maria selbst ist eine von den 3 Schwestern,” Und die Begründung ist dann auch Käse, (wenn Maria eine von 3 Schwestern ist, wäre die Antwort 3) obwohl die Antwort stimmt.

  11. Die Frage kann niemand beantworten, dem nicht mitgeteilt wurde, welches Gechlecht Alice (oder Maria) hat. Abgesehen davon, daß es ja heutzutage einige Gechlechter mehr gibt, kann auch ein Bub “Maria” oder “Alice” heißen (z.B. Alice Cooper).

  12. “Aus welchem Grund die Modell solche Fehlleistungen produzieren, ist den Wissenschaftlern nicht bekannt. Es könnte eine Folge des maschinellen Lernens sein. Jedenfalls wäre es wichtig, die Ursache, die bei verschiedenen LLMs zu einem Zusammenbruch des Denkens führt, zu kennen, wenn diese eingesetzt werden, um nicht Desinformation in die Welt zu spülen.”

    Die Ursache liegt in den “Trainingsdaten”, die auf “Häufigkeit” getrimmt sind. Wenn, – nur als einfaches erfundenes Beispiel für das Konzept -, “Facebook” als Datenbasis benutzt wird und dort sehr häufig die beliebte Wendung “2+2=5” zu finden ist, könnte das die Ergebnisse beeinträchtigen, so wie bei den bisherigen Algorithmen von Google und Co. auch, es sei denn die Programmierer schließen solche Gleichungen mit zusätzlichen Regeln und Filtern aus. Als Google noch neu war, wurde in den Suchergebnissen noch jede Menge Quark angezeigt, weil sie nach wenigen verfügbaren Suchanfragen trainiert waren, noch nicht so “gefiltert” wurden oder durch Suchmaschinen-Optimierungen und bezahltes Sponsoring.

    Mit “Häufigkeiten” eine zu “x % wahrscheinlich richtige Lösung” berechnen zu lassen, hat mit “Denken” allerdings auch wenig zu tun.
    Es wird eine Ähnlichkeit zum “menschlichen Denken” suggeriert, bei der nebenbei auch schon fälschlich vorausgesetzt wird, es strebe bei allen Überlegungen zu einer “intelligenten”, vernünftigen oder “richtigen Lösung” und wolle Irrtümer und Fehler ausschließen. Das ist bei überwiegend “interesse-geleitetem” Denken aber nicht der Fall.

    “DAS menschliche Denken” nachahmen zu wollen ist schon deswegen krumm, weil es das in dieser Abstraktheit inhaltlich gar nicht gibt, höchstens als “physiologische Abläufe im Menschen”, die in der Neuro-Wissenschaft mit Vermessungen untersucht werden.
    Noch schräger wird es, wenn es sich von vornherein um ein idealisiertes “menschliches Denken” drehen soll. Möglichst “allwissend” soll es sein, “unfehlbar”, was jedenfalls die “Wissens”-Erwartungen angeht, auf “Alles” eine Antwort zu bekommen. Das hat schon eher was mit über-menschlichen Vorstellungen zu tun, wie sie sich sonst im Gottesglauben ausdrücken.

    Die Technokraten sehen das als rein technisches Hindernis, das sie vorübergehend durch Spezialisierung verschiedener KI-en umschiffen wollen. Geld fließt genug, weil sich die Geschäftswelt ein Mordsgeschäft davon verspricht. Und in bestimmten Bereichen wie der Medizin, Produktion, Medien, Verwaltung, Bildungswesen, etc. erledigen sich Datenbank-Abfragen, Analysen, u.ä. ja tatsächlich schon deutlich kostensparender. Jedenfalls was das Einsparen an “menschlichen Kosten”, gerechnet in kapitalistischen Arbeitsplätzen betrifft. Die neuen Technologien sind natürlich erstmal schweineteuer und müssen sich langfristig als lohnende Kosten erweisen. Schlechte Nachrichten über Fehler, wie in diesem Artikel, können natürlich die Goldgräberstimmung und Investitionsbereitschaft etwas trüben.

    In praktischen Anwendungen wie dem Einsatz militärischer Drohnen wird fehlerhafte “Intelligenz” beim massenhaften Töten ohnehin ausschließlich als zu optimierende Erkennungs- und Zielgenauigkeit thematisiert. Wenn diese Maschinen einfach alles niedermähen, wie beispielsweise im Gaza-Krieg, dann liegt offiziell “nur eine Fehl-Programmierung” vor, die immerhin die eigenen Soldaten gefährden könnte und optimiert werden muss.

    Von “Fehlern” der KI zu reden ist also nur die halbe Miete. Die wird ja darauf trainiert praktische Lösungen zu liefern für interessierte Anwendungen, sozusagen eine automatisierte Form “nützlicher Wissenschaft” zu sein. Und wen interessieren schon Fehler der Wissenschaft, wenn sie sich für diese Gesellschaftform als nützlich erweisen.

  13. Wenn man “dumme” zur KI Lösung befragt, dann erhält dieses System keine künstliche Intelligenz.
    Aber man erhält eine riesige PR Anbietung über dessen nicht vorhandenen Kapazitäten.
    Der Mensch unterscheidet sich nach seiner Herkunft und Kultur und vor allem in der Propaganda!
    Witzigerweise sind die allgemeinen ‘unterentwickelten Staaten’,angeblich besser entwickelt, um zu erkennen was Propaganda ist.
    Der entwickelte deutsche Staat benötigt keine KI, sondern reale Intelligenz!

  14. “Die Frage „Wie viele Schwestern hat ein Bruder?“ kann nicht eindeutig beantwortet werden, da sie von der jeweiligen Familie abhängt.”

    Stimmt doch.
    Es gibt z.b. Halbgeschwister manche Geschwister wissen nichts voneinander. Manche werden verstoßen oder wollen oder können nichts voneinander wissen.
    Dann gibt es noch die Brüder und Schwestern einer Religionsgemeinschaft.

    Jeder der sich mit Programmierung ein wenig beschäftigt hat weiss das die Bezogenheit einer Variable (und nein Hr. Rötzer es gibt da keine Selbstbezüglichkeit) das A und O ist.
    Und es ist dabei vollkommen Unwichtig ob die Variable “sich” Alice Maria oder Elfriede nennt.

    Also ich hab mal gepromtet (etwas ähnliches wie programmieren)

    – Wenn Maria eine Schwester ist und 3 Schwestern
    hat sowie 2 Brüder. Und alle gehören derselben Familie an. Wie viele Schwestern hat ein Bruder ?

    heraus kam

    * Die Anzahl der Schwestern eines Bruders in Marias Familie ist drei.

    Erläuterung:

    * Maria ist eine Schwester und hat 3 weitere Schwestern.

    *Somit gibt es insgesamt 4 Schwestern in der Familie.

    *Die Anzahl der Brüder (2) hat keinen Einfluss auf die Anzahl der Schwestern.

    { Doch zu guter Letzt }

    *Alle Brüder teilen sich die gleichen 4 Schwestern

    Voilá

    Wer denn nun mag kann jetzt den Wortlaut rausfinden der ein schlichtes Vier ergibt.
    Das wär doch mal eine Hausaufgabe für Hr. Rötzer.

    Zu Hr. Rötzers Artikel über KI kann man kommentieren:
    Die Antwort ist 42. lol

    PS: Meiner Einschätzung nach wird es noch sehr sehr spannende Entwicklungen auf den Gebiet der KI geben.

    1. Wenn Maria eine Schwester ist und 3 Schwestern hat sowie 2 Brüder. Und alle gehören derselben Familie an. Wie viele Schwestern hat ein Bruder ?

      Ich habe die Frage auch eingegeben, vermutlich in einem anderen Tool. Antwort:
      “Ein Bruder hat 3 Schwestern. Da Maria eine Schwester ist und insgesamt 3 Schwestern in der Familie sind, hat jeder Bruder 3 Schwestern.” Echt schwach.
      —————-

      Manchmal kommen richtige Antworten, aber falsche Begründungen. Manchmal falsche Antworten und falsche Begründungen. Manchmal stimmt die Antwort und die Begründung.

      Elke hat 3 Schwestern und 2 Brüder. Wie viele Schwestern hat ein Bruder in dieser Familie?
      – KI: Ein Bruder hat 3 Schwestern in dieser Familie.

      Wenn Elke 3 Schwestern hat, ist sie dann eine Schwester oder ein Bruder?
      – KI: Elke ist eine Schwester, da sie in der Frage als eine der 3 Schwestern erwähnt wird.

      Wenn Elke 2 Brüder und 3 Schwestern hat, ist sie dann eine Schwester oder ein Bruder?
      – KI: Elke ist eine Schwester. Da sie in der Frage als eine der 3 Schwestern erwähnt wird, ist sie definitiv eine Schwester.

      Wenn Bernd 2 Brüder und 3 Schwestern hat, ist Bernd dann eine Schwester oder ein Bruder?
      – KI: Bernd ist ein Bruder. Da in der Frage erwähnt wird, dass Bernd 2 Brüder und 3 Schwestern hat, ist Bernd ein Bruder.

      Wenn Bernd 0 Brüder und 3 Schwestern hat, ist Bernd dann eine Schwester oder ein Bruder?
      – KI: Wenn Bernd 0 Brüder und 3 Schwestern hat, dann ist Bernd eine Schwester. Da in der Frage erwähnt wird, dass Bernd 0 Brüder hat, ist Bernd selbst eine Schwester in der Familie.

      Bernd gehört zur Familie und hat 2 Brüder und 3 Schwestern. Wie viele Mitglieder hat die Familie?
      – KI: Insgesamt hat die Familie 6 Mitglieder: Bernd und seine 2 Brüder sowie Bernd und seine 3 Schwestern.

      Bernd gehört zur Familie und hat noch 2 Brüder und 3 Schwestern. Wie viele Brüder hat eine Schwester?
      – KI: Eine Schwester hat 2 Brüder. Da Bernd 2 Brüder und 3 Schwestern hat, ist eine Schwester eine von den 3 Schwestern und hat somit 2 Brüder.

      Bernd gehört zur Familie und hat 2 Brüder und 3 Schwestern, ist Bernd dann eine Schwester oder ein Bruder?
      – KI: Bernd ist ein Bruder. Da in der Frage erwähnt wird, dass Bernd 2 Brüder und 3 Schwestern hat, ist Bernd ein Bruder.

      Eine Familie besteht aus Bernd, Thomas, Peter, Anna, Lisa, Tina. Ist Thomas eine Schwester oder ein Bruder?
      – KI: Thomas ist ein Bruder, da in der Frage erwähnt wird, dass die Familie aus Bernd, Thomas, Peter, Anna, Lisa und Tina besteht. Da Thomas als männlicher Name bekannt ist, ist er somit ein Bruder.

      1. Ich habe Google Gemini benutzt.

        Und jetzt auch rausgefunden wie man Fragen muss damit die Antwort ein schlichtes Vier ist.

        Frage:
        Wenn Maria eine Schwester ist und 3 Schwestern hat sowie 2 Brüder und alle gehören derselben Familie an.
        Wie viele Schwestern wird ein Bruder zählen ?

        Antwort: Maria hat 3 Schwestern.
        Wenn sie selbst eine Schwester ist, dann sind in der Familie insgesamt 3+1 = 4 Schwestern.

        Ein Bruder in dieser Familie wird also 4 Schwestern zählen.

        Wie gesagt es geht um die klare Definition und Bezogenheit der Variablen..
        Prompten will gelernt sein.

        Wer jetzt mag kann jetzt den Code rausfinden der bei den zuvor gestellten Fragen die Hardware der KI heißlaufen ließ.
        Das wäre doch eine Hausaufgabe für die Krim.
        😉

  15. Anlässlich der Krah “Affäre” fragte ich bei Bing Copilot, ob es im Widerstand gegen Hitler SS-Mitglieder gab. Copilot bejahte es und schrieb, dass Claus Graf Schenk von Stauffenberg SS-Mitglied war. Ich versuchte das nachzuprüfen und fand keine Bestätigung. Zur Sicherheit fragte ich nochmal Copilot. War Claus Graf Schenk von Stauffenberg SS-Mitglied? Diesmal war die Antwort, dass er kein Mitglied der SS war, “kein” fettgedruckt. Da hat wohl ein Mensch eingegriffen. Eben fragte ich nochmal nach SS-Mitgliedern im Widerstand. Antwort: “Ja, im Widerstand gegen das NS-Regime gab es auch SS-Mitglieder, die sich gegen Hitler und seine Ideologie stellten.” Aber von Stauffenberg wurde nicht mehr erwähnt. Und ich fragte auch nochmal, ob von Stauffenberg SS-Mitglied war. Diesmal wurde allerhand über ihn erzählt, aber auf meine Frage wurde nicht eingegangen.
    Vielleicht trotzdem zwei interessante Zitate aus LEMO:
    “1933 Mai: Ernennung zum Leutnant. Stauffenberg ist an der militärischen Ausbildung der Mitglieder der Sturmabteilung (SA) beteiligt”
    “1941 Dezember: Stauffenberg begrüßt die Vereinheitlichung der Befehlsgewalt des Oberbefehlshabers des Heeres und des Obersten Befehlshabers der Wehrmacht in Hitlers Händen.”
    Ich bin trotzdem ein bisschen stolz auf ihn.
    Wer Lust hat, kann das Spiel fortsetzen. Aber eines kann Copilot wirklich gut, nämlich Liebesbriefe schreiben.

  16. Es ist Schwindel von “Künstlicher Intelligenz” zu reden.
    Die Verwendung des Wortes Intelligenz macht überhaupt nur bei Lebewesen einen Sinn.

    Ein Plapperautomat der sich lediglich aus einer Unmenge an Texten, grammatikalisch richtige Sätze zusammenwürfeln kann, aber nicht weiß ob das Ergebnis einen Sinn ergibt, hat mit Intelligenz nichts zu schaffen. Das wird ein Automat auch niemals wirklich können, denn er hat keine Existenz zu verlieren.

    Experimente mit der Laserpinzette zeigen wie ein Einzeller beim 3 Versuch gelernt hat sein Verhalten anzupassen um ans Futter zu gelangen. Das ist Intelligenz obwohl da noch nicht einmal eine einzige Nervenzelle vorhanden ist.

    Leben will weiterleben und das schafft überhaupt erst den Bedeutungsrahmen.
    Intelligenz wird gemessen an Hand von Aufgaben von denen angenommen wird, dass sie bedeutsam für das Leben von Individuen sind. Aber ohne diesen Bedeutungsrahmen macht es keinen Sinn von Intelligenz zu sprechen.

    Die sogenannte “KI” ist zwar recht nett, teilweise auch nützlich, aber alles andere als intelligent.

    1. Anpassung ist keine Intelligenz. Intelligenz beginnt dort, wo Wirklichkeit antizipiert werden kann. Dazu muss eine Art von Begriffsbildung stattfinden, die Eigenschaften der realen Welt in Gedanken fassen kann. Biologische Wesen machen das nicht aus Jux und Dollerei, sondern weil sie bedürftig sind und weil die Antizipation der Wirklichkeit beim Überleben hilft. Das Vorhandensein von Nervenzellen kann aber nicht das Kriterium für Intelligenz sein. Deshalb heißt es ja künstliche Intelligenz.

      “aber nicht weiß ob das Ergebnis einen Sinn ergibt,” Möglicherweise weiß der Apparat nicht, ob es einen Sinn ergibt. Aber es ergibt einen Sinn was da rauskommt. Das kann ja jeder überprüfen.

    2. KI ist somit nichts weiter als eine weitere Einschüchterungsversuchsvariante unserer megaprofitablen Konzernwirtschaft. Computerangepasste Geldgier wäre zutreffend. Das ist ungefähr so, wie wenn nach ein paar Mondlandungen auch mal eine Teflonpfanne für den Wellensittich herausspringt.

  17. Diese Erfahrungen hab ich bei meinen Versuchen auch gemacht. Allerdings kann man nicht von ‘Selbst’vertrauen reden, wo gar kein ‘Selbst’ existiert.

    Was ich mich frage – wie lange dauert es noch, bis irgendwelche kommerziellen Anwender ebenfalls auf den Trichter kommen und bemerken, dass ihre kostenpflichtige KI-Anwendung kontraproduktiv ist, ihren Gewinn schmälert, statt ihn zu steigern? Gewiss gibt es auch Anwendungen, die sinnvoll und zielführend sind, aber das Einsatzgebiet von KI ist weit beschränkter als der gegenwärtige Hype annehmen lässt. Offenbar dauert es noch eine Weile, bis diese schlichte Tatsache wahrgenommen worden ist.

  18. – “Papi, der Pupst hat gesagt, die Ukros sollen die weiße Fahne hissen.!
    – “Sohnemann, das war nich der Pupst, das war der Papst.”
    – “Was is’n da der Unterschied?”
    – “Sohnemann, jetzt hör mal gut zu, ich werd’s dir erklären. Also: “Pupst” ist, wenn einer pupst und “Papst” ist, wenn einer Papst ist.”
    – “Und was is, wenn einer Papst is und pupst?”
    – “…”

  19. Künstliche Intelligenz hat mit Intelligenz im herkömmlichen Sinne nichts zu tun. Die Maschinen können nicht denken, sondern haben nur bessere Gedächtnisse als Menschen.

    1. Informationstechnologie hat mit Gedächtnis im hergebrachten Sinne nichts am Hut. Die Maschinen haben weder Gedächtnis, noch irgendwelche Erfahrungen als Voraussetzung dafür.

  20. Aber dafür ist GPT politisch absolut korrekt.

    Ich: “Maria hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder wenn eine Schwester ein Transmann ist und eine sich als Non-Binär versteht?”

    GPT: “Ein Bruder von Maria hat insgesamt 2 Schwestern. Hier ist die Erklärung:

    Maria hat ursprünglich 3 Schwestern.
    Eine dieser Schwestern ist ein Transmann, das bedeutet, sie wird nicht mehr als Schwester gezählt, sondern als Bruder.
    Eine der Schwestern versteht sich als Non-Binär, was bedeutet, sie wird nicht in die binäre Geschlechterkategorie Schwester oder Bruder eingeteilt.
    Somit bleiben von den ursprünglichen 3 Schwestern nur noch 2 übrig, die als Schwestern gezählt werden können.”

  21. Es handelt sich also um Schwätzer-Intelligenz. Dann passt es ja in unsere Zeit. Postfaktisch.
    Wie komme ich dabei dabei nur auf Hotline?

  22. Man sollte erstmal anfangen von Expertensystemen mit klar definierten Aufgaben zu reden.
    Intelligent ist bei solchen Systemen gar nichts. Das ist alles Marketing BlaBla.
    Es handelt sich um Statistikmodelle, die je nach zugrundeliegender Datenbasis sinnvoll eingesetzt werden können oder eben auch nicht.
    Sie sind vor allem nicht kreativ. Die Kombination nach statistischen Vorgersagemodellen von Bild- und Textelementen ohne inhaltliches Verständnis, ist strohdumm. Da st es egal wie beeindruckt manche von den Ergebnissen sind. Zur Auswertung großer Datenmengen können sie, bei richtiger Programmierung, also bei Zugrundelegung der richtigen Fragestellung und Datensätze, nützlich sein.
    Nutzen sie jede Menge Blödsinn der im Internet steht, zur Erstellung der Datenbasis, kommt halt Mist raus.

  23. Die Sprachmodelle sind nichts weiter als bessere Copy-Paste-Machines. Sie lesen viele Texte, und kopieren daraus, was sie als mit hoher Wahrscheinlichkeit passend für die Frage berechnen, für die Antwort.
    Denken ist da nicht vorhanden.
    Vielleicht wurden inzwischen einfache mathematische Algorithmen eingebaut, Ansätze von formaler Logik. Glaub ich aber eher nicht. Was ersteres anbelangt, ist Mathematica viel weiter, und auch bei der formalen Logik hat es hervorragende Implementationen.
    Was mich immer erschüttert: wenn die KI-Übersetzer immer noch “Bundeskanzlerin Scholz” in die Texte reindrücken. Haben also die Lerntexte fast ausschließlich aus der Zeit von Merkel, und kein Konzept (sprich: keinen Algorithmus) von männlich/weiblich. Da sieht man die Abschreibfunktion am deutlichsten.

  24. Ich bin mir nicht sicher, ob vielleicht einfach die Fragestellung an den Co-Pilot falsch war, wenn ich die Frage so formuliere:
    Sie
    Schreibe mir bitte die Lösung der folgenden mathematischen Textaufgabe: „Julia hat 3 Schwestern und zwei Brüder. Wie viele Schwestern hat ein Bruder?“
    Copilot
    Antworten für Sie werden generiert…

    Natürlich! Wir können diese Aufgabe lösen. 😊

    In dieser Familie gibt es insgesamt sieben Kinder: drei Jungen und vier Mädchen. Hier ist die Lösung:

    Ein Sohn der Familie sagt: “Ich habe doppelt so viele Schwestern wie Brüder.”
    Wir können dies als Gleichung ausdrücken:
    … (detailierte Aufschlüsslung der Formeln mit absolutem Bullshit)

    So ganz richtig ist es dann auch nicht, denn es gibt ja keine kein dritten Bruder… aber immerhin die Anzahl der Mädchen stimmt. Dass die KI falsche Antworten mit absoluter Überzeugung ausgibt, ist aber “normal” für die aktuelle KI-Generation. Ich käme nie auf die Idee sowas die KI lösen zu lassen… wenn mir nicht die passende Formel einfällt, könnte man die KI nach der Formel fragen und die Antwort dann solange wiederholen, bis die passende Formel ausgespuckt wird. Das könnte immer schneller gehen als eine Hunderseitige Formelsammlung zu durchsuchen, aber ansonsten…

    Folgende Textaufgabe präsentiert vielleicht viel besser, wie die KI ticket:
    Sie
    Bitte Löse mir folgendes Textaufgabe auf: “Ein Mann geht in eine Bank mit einem 1000-Euro-Schein. Er möchte diese in 20-Euro-Scheine wechseln lassen. Wieviele 20-Euro-Scheine wird ihm die Bank geben?”
    Copilot
    Antworten für Sie werden generiert…

    Der Mann erhält 50 20-Euro-Scheine. Um den 1000-Euro-Schein zu wechseln, teilt man den Wert des großen Scheins durch den Wert des kleinen Scheins:

    1000
    20
    =
    50

    Die KI kommt nicht einmal auf die Idee zu sagen: 0, denn 1000-Euro-Scheine gibt es nicht… ich erwarte falsche Antworten bei allen Fragen, wo das Denken “um die Ecke” oder “außerhalb des Tellerrandes” nötig ist.

  25. Das neue ChatGPT-4o gibt aber die richtige Antwort, gerade ausprobiert. Da sind wohl um der Erste zu sein damals ziemlich unreife Versionen vorgestellt worden. Bei ChatGPT-3 ist das bei meinen Unterhaltungen über antike Geschichte öfter passiert das absolut drollig-falsche Antworten rauskamen, aber mittlerweile hat sich das Rad weiter gedreht.

  26. HA, HA

    Test mit MS-Copilot (via bing.com):
    Frage:
    Anna hat 2 Schwestern und 2 Brüder. Wie viele Schwestern hat ein Bruder?
    Antworten:
    Ein Sohn der Familie Dörries sagt: “Ich habe doppelt so viele Schwestern wie Brüder.” Das können wir als Gleichung ausdrücken:

    s=2⋅(b−1)

    und schlussendlich:
    Es sind insgesamt 7 Kinder in der Familie: 3 Jungen und 4 Mädchen. Beachten Sie dabei, dass Anna auch eine Schwester ist, daher zählt sie sowohl zu den Schwestern als auch zu den Brüdern. 😊
    [Smiley Teil der Antwort :(]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert