
Austreibung der Halluzinationen bei KI-Sprachmodellen
Ist die Lösung, eine KI zur Halluzinationsbewertung einzusetzen, um den Chatbots wie ChatGPT die vermeintliche Realität zu lehren?

Danke, Gil Ofarim!
Vor zwei Jahren war der Aufschrei gigantisch: Das Hotel The Westin in Leipzig habe ein Antisemitismus-Problem, hieß es. Hatte es nicht – die Vorfälle waren […]

Hasbara
Die israelische Propaganda funktioniert in den USA nicht gut. Daher kippt die Stimmung und die Palästinenser erhalten viel Anteilnahme. […]

»Mein Beruf und ich als Person: Das ist schon sehr verwoben«
Über Erben und Erbschaften spricht man nicht. Gisela Stelly Augstein hat jetzt den ersten Erbschaftsroman geschrieben, der zugleich ein Familienroman ist. […]

Ukraine: Konflikt zwischen Militärführung und Regierung vertieft sich
Nachdem Präsident Selenskij dem Oberkommandierenden erklärte, sich aus der Politik herauszuhalten, verlangt nun eine Abgeordnete der "Diener des Volkes" seinen Rücktritt wegen fehlender Kriegsplanung. […]
Nachdem die Abkürzung KI für alles und jedes benutzt wird, es im Artikel jedoch um LLM geht, large language models, wie Bard von Google oder ChatGPT (noch) von Openai, wäre es besser von LLM bzw. „großen Sprachmodellen“ zu sprechen. Auf Anfrage teilt Bard mit, dass auch folgende Bezeichnungen möglich wären:
„Die gebräuchliche deutsche Bezeichnung für LLMs ist große Sprachmodelle. Diese Bezeichnung ist grammatikalisch korrekt und verständlich. Sie ist auch eindeutig, da sie sich klar von anderen Arten von Sprachmodellen abgrenzt.
Eine andere mögliche Bezeichnung ist neuronale Sprachmodelle. Diese Bezeichnung ist etwas genauer, da sie sich auf die Art der verwendeten Algorithmen bezieht. Allerdings ist sie auch etwas sperriger und weniger gebräuchlich.
Weitere mögliche Bezeichnungen sind:
maschinelle Sprachmodelle
künstliche Sprachmodelle
sprachbasierte KI-Modelle
… Letztendlich ist es natürlich Geschmackssache, welche Bezeichnung man bevorzugt. Die Bezeichnung große Sprachmodelle ist jedoch die gebräuchlichste und eindeutigste Bezeichnung.“
Interessant! Um es gleich zu sagen: ich mag dieses ganze KI-Zeug überhaupt nicht.
KI kann also halluzinieren, Informationen ‚erfinden‘ (lügen) und besitzt keine eigene Urteilskraft. Das macht sie ja schon fast wieder irgendwie menschlich. Komisch nur, daß ich jetzt gerade an Karl Lauterbach denken muss…….. Sei’s drum.
Fast schon pikant: in Russland gab es vor einigen Tagen eine große KI-Tagung. Um explizit keine russische KI zu verwenden hat man einer GOOGLE-KI Fotos der berühmt-berüchtigten Mondlandung vorgelegt. Nach Meinung der KI sind diese Fotos Fälschungen. 🙄 Putins lapidarer Kommentar dazu: ‚Sehr interessant‘.
https://freede.tech/kurzclips/video/188238-google-ki-bewertet-fotos-us/?utm_source=Newsletter&utm_medium=Email&utm_campaign=Email
KI ist wie die reale Bildung gerade ‚umgesetzt wird‘, hüben wie drüben.
Die künstliche Intelligenz, ist keine künstliche Intelligenz, weil diese ‚Intelligenz‘, erst einmal angefüttert wurde durch sog. intelligente Menschen.
Künstliche Intelligenz sind Objekte, die durch Menschen geschaffen wurden und dann als Intelligenz an den ‚Markt’etabliert wurden. Das ist falsch und auch die rechnerischen Modelle dazu, beinhalten keinerlei Substanz.
Der Mensch hat bis heute in keinster Weise, irgendwelche wissenschaftlichen Grundüberzeugen belegen können.