KI-Guru Sam Altman: „Menschen sind wirklich daran interessiert, was andere denken“

 

Dürftige Antwort auf die Frage, was in Konkurrenz mit KI vom Menschen übrigbleibt. Umfrage: Zweidrittel denken, dass ihre Jobs von KI geleistet werden können.

 

Die Umfrage ist alles andere als repräsentativ. Befragt wurden lediglich 1027 erwachsene Amerikaner, die arbeiten, online über die erwarteten Folgen Künstlicher Intelligenz befragt. Generative KI spukt derzeit überall herum als das nächste oder bereits vorhandene größte Ding, das vieles verändern wird. Disruptiv hätte man vor kurzem gesagt, das Wort scheint schon wieder aus der Mode gekommen zu sein.

Oft geht es um die von der KI eingeleitete Menschheitsdämmerung oder um das, was nun alles möglich wird. Robotikforscher Hans Moravec hat vor einiger Zeit schon mal prophezeit, dass die Menschen im postbiologischen Zeitalter mit ihrem Körper als Schweine oder andere Haustiere im Cyberspace enden könnten. Ans Schlachten dachte er nicht, da die intelligenten Agenten ja keine biologischen Körper hätten: „Auf die eine oder andere Weise würde die ungeheuerliche Weite des Cyberspace von unmenschlichen supergeistigen Entitäten wimmeln, die mit Dingen beschäftigt sind, die sich zu menschlichen Angelegenheiten wie unsere zu denen von Bakterien verhalten.“

Gefragt, ob sie mal als Haustiere von KI-Entitäten enden würden, wurden die Amerikaner nicht,  aber wohl, ob diese ihre Jobs ausführen könnten. Zweidrittel sagten ja. Das verweist nicht nur auf die Projektion über die Leistungsfähigkeit der KI, die Jobs gewissermaßen durch Verdrängung der menschlichen Arbeiter dehumanisieren wird, sondern vielleicht eher darauf, wie Menschen ihren Job einschätzen. Ist er voll Routinen und körperlich nicht sonderlich raffiniert, könnte eben eine wie auch immer smarte Maschine diesen übernehmen.

78 Prozent fürchten, dass KI ihre Branche beeinflussen wird. Das ist realistisch, sagt aber eigentlich nur, dass man Sorge vor Veränderungen hat, da man dann immer nicht weiß, wo dies enden wird. Etwas seltsam ist, dass die über 65-Jährigen, die nicht mehr viel von dem Einfluss mitkriegen werden, am meisten Sorgen haben, während die Jungen bis 24 Jahren die geringste Angst haben, allerdings haben auch in dieser Altersgruppe Zweidrittel Sorge. Aber in den Schulen und an Universitäten wird ja meist mit KI herumgespielt und ausprobiert, welche Chancen sie bietet, um sich das Leben zu erleichtern bzw. es zu optimieren.

Ambivalent sind aber auch die Einstellungen aller Befragten. Sie erwarten nicht nur, dass es Probleme mit den Löhnen und der Ersetzung von Arbeitsplätzen gibt, es könnte auch sein, dass die Arbeit durch KI als brave Diener weniger stressig wird und unangenehme Aufgaben abnimmt, die Produktivität und die Effizienz zunehmen. Wenn die KI nicht das Einkommen beeinträchtigt, dafür aber die Wochenarbeitszeit verringert, hätte man nichts gegen sie. Dass KI die Arbeitszeit verringert, hoffen 76 Prozent. Also die Hoffnung, die immer mit neuer Technik verbunden wurde, aber nicht eintrat.

Interessant für die Selbsteinschätzung ist, was der KI zugetraut wird und was man als eigenen Vorteil sieht. Die Auswahl ist leider etwas beschränkt. Gefragt, wo die KI besser ist und wo der Befragte, sind die Antworten zwar durchaus gespalten. In vielen Bereichen sehen sich die Menschen noch anthropozentrisch oder narzisstisch als überlegen an. Unterlegen sieht man sich, wenn es um das Zeitmanagement, das Analysieren von Daten oder die Erkennung von Krankheiten geht. Aber wenn es um emotionale Intelligenz oder vor allem um Führung oder Leitung (leadership) geht, sieht man sich im Vorteil. Auch bei der Kommunikation mit anderen und der Entscheidungsfindung will man besser sein.

Wer will schon unter einer KI als Angestellter arbeiten? Besser ist dann schon, ganz überflüssig zu werden, als zu einem Sklaven, der man ja auch ist, wenn der Vorgesetzte ein Mensch ist, der einen jederzeit dank seiner emotionalen Intelligenz oder Urteilskraft vor die Türe setzen kann.

Human out of the loop?

Sam Altman, KI-Guru und CEO von OpenAI wurde kürzlich gefragt, was die menschliche Kernkompetenz sei und ob KI unsere emotionale Intelligenz, unsere Empathie, unsere Sorge um andere reproduzieren könne. Was bleibt für den Menschen übrig, was KI nicht kann. Altman hatte zuvor schon gesagt, dass Menschen der KI deutlich weniger Fehler verzeihen würden als anderen Menschen. Es würde vieles geben, was für die Menschen übrigbleibe, „Menschen“, so fuhr er fort, „sind wirklich daran interessiert, was andere denken, das scheint sehr tief in uns verdrahtet zu sein“.

Als Beispiel nannte er, dass zwar Computer Menschen im Schachspiel übertreffen, aber Schachspielen sei weiter in Mode. Man würde nicht zwei Computern zuschauen, aber anderen Menschen, wie sie spielen. Beim Lesen würde man sich auch fragen, wer der Autor ist, um eine persönliche Beziehung herzustellen. Wir seien bei aller Technik immer noch sehr auf uns fokussiert. Wir sind mit uns beschäftigt, vielleicht mit sozialer Intelligenz, sagt er als Unterschied zur KI. Die könnte möglicherweise eben auch mit ihresgleichen beschäftigt sein, während sie Menschen weniger interessieren, so lange sie nicht gefährlich werden.

Altman hat wohl gemerkt, dass das Gesagte als Unterscheidungsmerkmal ein bisschen wenig ist. Er fügt hinzu: „Ich gebe zu, dass es sich dieses Mal anders anfühlt. Die Artificial General Intelligence (AGI) – Künstliche allgemeine Intelligenz – ist so nah an dem, was wir alle an der Menschheit schätzen, dass es sich anders anfühlt.“ Die Konsequenz wird nach ihm sein, dass die Menschen in ihren Jobs auf einem etwas höheren Abstraktionsniveau arbeiten und einen viel größeren Zugang zu Fähigkeiten haben, aber immer noch Entscheidungen darüber treffen, was in der Welt geschieht.

Das ist ein wenig dürftig für jemanden, der die Entwicklung und den Einsatz generativer KI maßgeblich mit vorantreibt. Eine der zentralen Fragen, was der Mensch ist, wird von der KI stark verändert. Das Selbstverständnis wird ein anderes werden, nachdem bereits mehrere Verschiebungen des Anthropozentrismus stattgefunden haben. Noch wird hochgehalten, dass die Menschen zumindest die letzte Kontrolle haben sollen, also dass zumindest noch gilt: man in the loop. Das könnte man allerdings auch anders sehen, nämlich dass der Menschen nur noch entmachteter Teil der Maschine ist, wie das nicht nur bei autonomen Fahrzeugen der Fall sein wird, wo der Fahrer das Steuer abgibt und zum Passagier wird. Wahrscheinlich kümmert das die KI-Apologeten und -Profiteure wenig, solange sie noch Kontrolle ausüben und die Früchte ernten können.

Ähnliche Beiträge:

18 Kommentare

  1. KI an sich ist kein Problem, sondern nur eine neue Stufe der Entwicklung der Produktivkräfte. Die Frage ist nicht, was richtet KI an, sondern die, was die Produktionsverhältnisse , die Herrschaft des Wertes über die Lebensbedingungen, mit KI anrichtet.
    Das wirft die übergeordnete Frage auf, welche Produktionsweise notwendig ist, um KI nicht gegen die Menschen einsetzen zu können.
    Für die Linke ergibt sich daraus die Frage, welcher Weg dahin beschritten werden muss. Aktuell ist die Linke aber ausschließlich auf ihre Bedeutung in der bürgerlichen parlamentarischen Ordnung ausgerichtet und hat eine strategische Zielsetzung überhaupt nicht im Blick.

    1. Klar, such Mal auf YouTube, da findest du ewig viele Dinge die von der KI erzählt wurden und dann mit einem 3d Drucker erschaffen wurden.

  2. Da hat Herr Rötzer ein wichtiges Thema angesprochen.
    Ich denke im Gegensatz zu manch anderen Lesern sogar, dass es ein sehr wichtiges Thema ist.
    Was mich daher verblüfft und auch etwas enttäuscht, das ist die (bisher) geringe Zahl der Kommentare.

    Unwillkürlich denke ich, dass viele nicht kommemtieren, weil sie sich entweder der Konsequenzen dieser Techniken erst wenig bewusst sind (vielleicht aus aus Altersgründen) oder weil sie keine Zweifel daran haben, dass diese Techniken auch nicht viel anders sind und wirken wie frühere Innovationen, etwa die Elektrifizierung.

    Herr Rötzer hat die wichtigste Frage im letzten Absatz ausgesprochen:
    “ Eine der zentralen Fragen, was der Mensch ist, wird von der KI stark verändert. Das Selbstverständnis wird ein anderes werden, nachdem bereits mehrere Verschiebungen des Anthropozentrismus stattgefunden haben. “

    Das ist in der Tat die eigentliche Frage. Und es ist eine viel tiefere und noch wichtigere Frage als jene vordergründig wichtige Frage nach den Konsequenzen für den Arbeitsmarkt. Die Frage nach den Folgen für die Kriegsführung geht schon etwas tiefer.

    Was ist der Mensch? Was macht den Menschen aus?
    Philosophische Fragen, vielleicht auch religiöse Fragen – mit Sicherheit aber keine Fragen, über die heutige Politiker und Journalisten jemals viel nachgedacht haben dürften.

    Das Gefährliche ist, dass diese Fragen heute Generationen gestellt wird, die keine wirklichen geistigen Wurzeln mehr haben und für die der Nihilismus – verbunden mit einem gewissen Allmachtswahn (die Idee, dass Klima „retten“ zu können, ist ein Beispiel) – die Normalität ist.
    Das lässt Schlimmes befürchten.

    Zu diesem Schlimmen könnte gehören, dass künftige Generationen die obige Frage nach dem Wesen des Menschen gar nicht mehr verstehen werden. Warum auch immer.

    1. Ja da gebe ich Ihnen recht. Leider finden sich Informationen darüber fast ausschließlich in englisch. Damit verbleibt die Diskussion in akademischen Kreisen.

      Das betrifft nicht nur das Berufsleben!. Inzwischen läuft die Partnerwahl vielfach über Algorithmen. Der Mensch verlernt seinen eigenen Sinnen zu vertrauen, was die Konsequenz daraus ist, daß kaum noch zu unterscheiden ist, was wirklich eigen ist.

      Für die, die englisch verstehen hier ein Vortrag;
      https://www.youtube.com/watch?v=nzuzE-dnK-Y&list=PLiX4QSJW9_Q9s6j0aIb1bMN2HHW7dQpQj&index=57
      Far Future Advances in Neurosciences to Optimize Human Performance

      04.11.2015

      „Dr. Amy Kruse, Vice President of Innovation bei Intific, leitet eine Diskussion zum Thema „Far Future Advances in Neurosciences to Optimize Human Performance“. Diese Diskussion fand während der 2015 Mad Scientist Conference des U.S. Army Training and Doctrine Command statt. Die Veranstaltung, die am 27. Oktober stattfand, brachte führende Wissenschaftler, Innovatoren und Denker aus dem akademischen Bereich, der Industrie und der Regierung zusammen, um Ideen über das zukünftige Einsatzumfeld auszutauschen.“
      (automat. Übersetzung)

      Die damals Ferne Zukunft ist Jetzt! 25 Jahre so hieß es einst ist die Lücke zwischen tatsächlichen technischen Möglichkeiten des Militärs bis zur allgemeinen Kenntnis in der „Zivilgesellschaft“.

      1. @ Zukunft war gestern

        Vielen Dank für die interessanten Hinweise. Leider ist mein Englisch nicht gut genug für diesen Vortrag. Kennen Sie auch deutschsprachige oder untertitelte Videos ähnlicher Art?

        Zu den Problemen:
        Die durch KI verwischte oder mutwillige verfälschte Wahrnehmung ist ein ganz wichtiger Punkt.

        Etwas Weiteres kommt m.E. aber noch hinzu:
        Es ist ja gerade die Intelligenz, die den Menschen ausmacht und vom instinkthaft lebenden Tier unterscheidet. Durch seine Intelligenz gewinnt er Freiheit bzw. Entscheidungsfreiheit. Außerdem ermöglicht ihm die Intelligenz auch durch das Nachdenken über die Dinge eine viel weitergende und selbständige Erkenntnis als beim Tier.

        Wenn KI dem Menschen nun immer mehr Entscheidungen abnimmt, wird damit die Freiheit des Menschen selbst getroffen und beschädigt. Dabei spielt es keine Rolle, ob diese Entscheidungen vernünftig sind oder nicht! Es geht um den Punkt, dass wir sie nicht mehr selbst treffen – egal ob am Steuer eines autonom fahrenden Autos, beim Einsatz eines militärischen Drohne, beim Bearbeiten von Steuererklärungen oder beim Einsatz von Chat GPT usw.

        In immer stärkerem Maße bewegt sich der Mensch in einer KI-geprägten Welt nur noch in den Bahnen, die von jener „höheren“ Intelligenz (sowie ihren Programmierern) gewünscht werden.
        Das betrifft dann auch die Freiheit auf einer ganz banalen Ebene. Wenn mein Auto sich in Zukunft möglicherweise weigert, an einer Stelle schneller zu fahren als erlaubt (automatische Schildererkennung), dann bin ich doch reduziert zum hilflosen Objekt. Andererseits könnte es durchaus eine Verkehrssituation geben, wo eine höhere Geschwindigkeit sogar helfen könnte, einen Unfall zu vermeiden …

        Gleiches gilt für die Erkenntnis, denn wenn wir in unserer zunehmend digitalisierten Welt in immer stärkerem Maße nur noch das präsentiert bekommen und wahrnehmen, was eine KI ausgesucht oder gar bearbeitet/erstellt hat, dann nimmt unsere autonome Fähigkeit zur Welterkenntnis stark ab. Letztlich berührt aber auch das wieder die abnehmende Freiheit.

        Wenn unten etwa @ Estragon auf die wirtschaftlichen Konsequenzen eingeht, so ist das sicher nicht falsch, bleibt aber auf einer kurzzeitigen und vordergründigen Ebene.

        Ihr Alias ist bemerkenswert.

        Gruß

        1. Ich bin erst kürzlich aufgrund eigenem Erleben auf das Thema gestoßen. Evtl. hilft eine Suche nach Prof. Dr. James Giordano Ethik der Gesundheitsförderung (u.a. Gastprofessor an der Uni Coburg und Berater der EU) weiter. Außerdem gibt es den Blog madsciblog.army.mil. Mithilfe deepl o.ä. lässt sich da evtl. mehr zu finden.

          Danke für die Blumen.

  3. Wenn KI unser Geldsystem übernimmt, würde der Wohlstand steigen oder die Arbeitszeit sinken, es braucht nur Silvio Gesell zu lesen, um ein funktionierendes Modell zu haben. Nach 20 weiteren Sekunden würden unsere 2500 Steueregeln auf 25 schrumpfen und wir werden über arbeitslose Steuerbreater reden. Im Rechtssystem wird Wahlfreiheit sein, man kann sich freiwillig einem KI Richter unterwerfen, bals wird man über arbeitslose Rechtsanwälte reden, die gerne in der Werbebranche arbeiten würden. LKW Fahrer sterben aus, weil sie nur noch für Überprüfungen zuständig sind und was soll man den Kindern noch auf der Schule beibringen, da kann man die Schulplicht gleich abschaffen!

  4. Träumen Replikanten wirklich von elektrischen Einhörnern? Oder warum SKYNET keinen Kapitalismus mehr braucht, um Mensch auszubeuten. KI-Entitäten haben bestimmt ganz andere Probleme als Biologisch reale Existenzen, aber wer würde den nicht gerne mit Pilzen über daß Wetter und Photosynthese diskutieren.

  5. Wenn die KI nicht das Einkommen beeinträchtigt, dafür aber die Wochenarbeitszeit verringert, hätte man nichts gegen sie.

    Arbeitszeitverkürzungen waren nie Folge technischen Fortschritts. Der technische Fortschritt der grossen Maschinerie erst in England, dann in Europa, führte zunächst zu exzessiver Verlängerung des Arbeitstags und der Arbeitswoche.

    Es waren die Kämpfe der Arbeiter und ihrer Organisationen, zusammen mit gesellschaftlichen Organisationen sozial engagierter Bürger und Intellektueller, die zur Durchsetzung von Höchstarbeitszeiten, zur Schaffung der Fabrikinspektionen etc. führten. Die nächste grosse Welle von Arbeitszeitverkürzungen, vor allem dem Achtstundentag nach dem ersten Weltkrieg, war direkte Folge der Oktoberrevolution.

    Nach dem 2. Weltkrieg kamen 5Tage- und 40Stundenwoche, ausser in den USA. Bis zum Ende des Kalten Krieges hatten sich in entwickelten Ländern sogar 35-Stundenwochen teilweise durchgesetzt. Seither geht es rückwärts. Aber die Antikommunisten merken nichts. Oder finden es gut.

    The Emperor’s New Brain wird nie die Menschen beherrschen, das machen die herrschenden Klassen der Besitzer der Maschinen, auf denen „künstliche Intelligenz“ läuft.

  6. KI bedeutet weitere Verlagerung und Verdrängung in Billiglohnbereiche aller Art: im Inland und in andere Länder. Aber das geht nur mit den robust automatisierbaren Aufgaben: Überwachung, Zulieferdienste, Massenproduktion.

    Das bewirkt weiter sinkende Profitraten des Kapitalismus und noch mehr Flucht der Reichen in die gigantischen Blasen der Finanzindustrie.

    Hochwertige Produktion geht nicht mit KI, denn sie ist nur in kleineren Teilen automatisierbar. Aber die Arbeitskraft wird im neoliberalen Staat sehr hoch besteuert, weil die Reichen diesen Staat brauchen, um in ihre Finanz-Blasen ständig reales, frisches Geld reinzupumpen (so wie eine Tennis-Traglufthalle zusammenfällt, versagt die Luftpumpe). Deshalb beschränkt sich die hochwertige Produktion mit ihrer Arbeitskraft auf immer weniger Segmente der Industrie.

    Wie es dann weitergeht, ist hier beschrieben: „Marsianische Fieberfantasien – Der Exodus der Geldmenschen“ ->
    https://gewerkschaftliche-linke-berlin.de/marsianische-fieberfatasien-der-exodus-der-geldmenschen/

    (P. S.:
    KI müsste KD heißen, denn Roboter sind dumm. „Intelligenz“ stammt aus dem Marketing der Technologiekonzerne, um die Dummheit der technischen Sklaven zu überdecken.
    Die Technologiekonzerne wollten als Mäuschen neben den Finanz- und Immokonzernen auch gern mal auf sich aufmerksam machen. Auch Dumme können wichtig sein!)

  7. Was Estragon eben über die Bezeichnung KI bemerkte, ist treffend: es ist de facto KD. KI ist der Marketinggag. Intelligenz (wenn man die natürliche Intelligenz beschreiben wollte) ist so viel mehr und so komplex, daß nach wie vor in den Kognitionswissenschaften darum gerungen wird, sie einigermaßen allgemeingültig zu beschreiben und zu definieren. Was von uns als KI bezeichnet wird, sind ausschließlich winzige funktionale Teilaspekte von Intelligenz, Spezialfunktionen von Datenverarbeitung nach NICHT evolutionär entstandenen (also artifiziellen) Algorithmen. Solche Dienerchen sind vollkommen unintelligent und ausschließlich für diese Spezialaufgabe brauchbar, quasi Fachidioten, aber in einem viele Größenordnungen noch viel höherem Grade spezialisiert, als man diesen Ausdruck im Zusammenhang mit Menschen versteht.
    Für alle, die sich zuerst mal ernsthaft an das Thema natürliche Intelligenz heranwagen wollen, empfehle ich „Das rationale Tier“ von Ludwig Huber, ganz aktuell erschienen mit dem aktuellen Forschungsstand, btw auch sehr gut lesbar. (Empfehlung übrigens explizit wärmstens @ Florian Rötzer! Und sowieso an KI-Forscher, damit sie verstehen, wo sie eigentlich hinwollen und wie weit sie davon noch entfernt sind).
    Auch wenn es im Buch vorrangig um tierische Intelligenz geht, wird doch klargestellt, welche Facetten Intelligenz besitzt. Und was ich für das Wesentlichste halte: es wird klar, daß der scheinbar unüberwindlich große Graben zwischen tierischer und menschlicher Intelligenz und Bewusstsein in Wirklichkeit nur ein winzig kleiner Spalt ist – der eigentliche Unterschied zwischen der Intelligenz der Menschen und den intelligentesten Tieren besteht quasi fast ausschließlich im Vorhandensein einer oder mehrerer extrem komplexer menschlicher Kulturen, die durch ausgefeilte Informationsweitergabe mittels Sprache, Schrift und Werkzeug entstanden sind!

    Was momentan imho für uns bei der Einschätzung von KI das Wichtigste wäre, ist tatsächlich schon von OberstMeyer und aquadraht benannt worden: die Eigentumsverhältnisse. Der Eigentümer definiert und befiehlt, was programmiert wird und welchen Zweck die KI erfüllen soll, völlig ethikfrei und völlig profitorientiert. Das ist die eigentlich Crux: die Nutzer oder gesellschaftliche Gruppen mit sozialem ethischen Anspruch haben keinerlei Mitbestimmungsrecht über dieses neuartige Produktionsmittel, es wird ihnen höchstens vorübergehend erlaubt, es mitzubenutzen, solange damit Profit für die Eigentümer generiert werden kann. Noch härter wird diese Dissonanz, wenn es um militärische Anwendungen geht.
    Und damit landen wir beim Grundwiderspruch unserer Epoche (und beim ollen Marx): die Entwicklung der Produktionsmittel (in diesem Fall ganz besonders der KI) ist soweit fortgeschritten, daß ohne weiteres die Möglichkeit eines guten Lebens für die gesamte Menschheit möglich ist – aber das private Eigentum und privates Interesse verhindert nicht nur eben diese Benutzung im gesamtgesellschaftlichen Interesse, sondern erzeugt sogar Bedrohungen und Gefahren für die gesamte Menschheit. Wenn man sich überlegt, wieviele Jahrzehnte es gedauert hat, die planetar bedrohliche Atombombe einigermaßen einzuhegen (natürlich nicht vollständig, gerade mal ganz knapp), kann sich vorstellen, was jetzt passieren könnte. Ja, die Zahnpasta kann nicht wieder in die Tube zurück. Auch die Entwicklung der KI kann nicht mehr unterbrochen werden. Es kann nur noch darum gehen, sie möglichst gut zu nutzen und vor Mißbrauch zu bewahren. Mal sehen wer schneller ist (momentan sieht es nicht so gut aus).

  8. Wenn staatliche Systeme ihr Bildungsprogramm so ausrichten, das alle nur noch blöd sind, darf man sich nicht über künstliche Intelligenz beschweren die dann intelligenter erscheint als die mögliche Intelligenz.

  9. Die Frage ist erst einmal, wer ist (je nach Sichtweise) dümmer oder intelligenter, KI oder der Durchschnittsmensch. KI ist problemlos in der Lage, die Einstellung des Mehrheitsmenschen zu jeder politischen Frage zu formulieren, und macht das sogar fundierter als diese Leute selbst. Was ergibt aber der Vergleich von KI mit einem Verwaltungsangestellten oder Beamten? Für einen Antrag musste ich unterschreiben, dass ich „hiermit“ unwiderruflich auf eine bestimmte Position verzichte. Darunter in Klammer und kleiner Schrift „(Dies ist nur eine Absichtserklärung und nicht der endgültige unwiderrufliche Verzicht auf …)“ Auf jeden Fall besitz KI einen entscheidenden Vorteil gegenüber den Verwaltungsmenschen. Sie kann nicht KIFFEN !!! Die Chinesen haben bei der Revolution alle Bürokraten erstmal in ein Umerziehungslager gesteckt. Das ist aber strickt abzulehnen!
    Ob es gut ist, wenn Menschen daran interessiert sind, was andere denken, wage ich auch zu bezweifeln. Sie sind nur daran interessiert, Mitmenschen abzuwerten oder zu idealisieren, und dabei unterlaufen ihnen die schlimmsten Irrtümer.

  10. Habt Ihr eigentlich schon mal Jules Verne „Die Erfindung des Verderbens“ gelesen? Mir entsteht mehr und mehr der Eindruck, daß wir alle noch nicht so recht begriffen haben, wovon eigentlich die Rede ist.

    1. @ Otto Bismark

      Habe das Buch von Jules verne eben rasch recherchiert, da ich diesen Titel noch nicht kannte.
      Der Vergleich ist verständlich. Außerdem muss man ja sehen, dass die Entwicklung erst am Anfang ist.

      Man könnte auch von einer „Büchse der Pandora“ sprechen.

  11. Der Mensch bleibt weiterhin Mensch, der Wert des Menschseins wird sich ändern, das ist kein Problem von KI sondern ein Problem von Menschen und Metriken. Es wurde bereits in den 1970ern erkannt, das ein System das Menschen emulieren kann exakt den Wert der Menschen beschreibt die es emuliert. Dieser Wert ist, bis zum Tod des Menschen, immer größer Null und die Metrik dafür lautet FTE (full time employee, Vollzeitarbeiter).
    ~
    Schach z.B. ist ein verhältnismässig triviales Problem. Es ist seit Jahrzehnten ohne KI gelöst und durch den Parameter der Tiefe (Anzahl der Züge), wie weit ein Schachprogramm voraus berechnet, effizient gelöst. Dazu kommt eine Bibliothek von bekannten und gespielten Mänovern die Berechnungen optimiert. Eine Schach-KI benötigt dazu weitaus mehr Resourcen.
    ~
    Generative Modelle sind weder kreativ noch können sie ihre eigenen Defizite erkennen oder kennen Zweifel bzw. Skepsis. Das bedeutet, kein Modell kann Neues generieren oder Fehler korrigieren. Es kann bestenfalls eine bisher unbekannte Kombination aus Daten (seinem Modell) erzeugen. AlphaGo ist seit Jahren ein exzellentes Beispiel dafür. Es spielt unkonventionell Go. Diese Unkonvention basiert auf historischen Vorstellungen wie in einem Kulturkreis Go gespielt wurde, die sich verbeitet haben. AlphaGo hat diese Konventionen ad absurdum geführt. Es ist Menschen bei Go überlegen.
    ~
    Was wir derzeit erleben ist der nächste Schritt in digitaler Bild- (auch Bewegtbild), Ton- (auch Sprache) und Textbe- und -verarbeitung und die Entfernung von Metadaten durch automatisierte statistische Integration und Komposition in generativen Systemen zu unvollständigen Modellen (LLMs). Es erlaubt neue Formen der Automatisierung von Schnittstellen zwischen Mensch und informationstechnischen Systemen.
    ~
    Es ist übrigens trivial CEOs, CFOs oder Kontrollinstanzen (Vorgesetzte) wegzuoptimieren. Jemand der gute Hand-Auge Koordination hat oder das Verhältnis von Hammer zum Nagel kennt (just sayin) wird uns mit seinem Gleichgewichts- und anderen Sinnen noch eine Weile erhalten bleiben. D.h. administrative und prekäre Berufsfelder sind stärker betroffen als handwerkliche Tätigkeiten.
    ~
    Ein gutes Beispiel für Laien ist ein Beitrag von Charles Stross, in dem er ein LLM über sich befragt und das Ergebnis ist nicht sonderlich gut: http://www.antipope.org/charlie/blog-static/2023/12/made-of-lies-and-more-lies.html – seine Schlussfolgerung ist nicht überraschend: Grosse LLMs sind, wie Suchmaschinen, nicht vertrauenswürdig.
    ~
    Wo vor einigen Jahren noch händisch bearbeitet und korrigiert wurde, ist mittlerweile ein Modell verfügbar das unseren Ansprüchen zur Datenmanipulation gerecht wird und Inhalte generieren kann. Die optimierte Abbildung des Menschen die wir als Selfie kennen, ist ein Produkt automatisierter Statistik und sehr konkreten Vorstellungen (Bias) von Symmetrie. Daraus resultieren subjektive Werte wie Schönheit oder Attraktivität. In der theoretischen Informatik ist dieses Problem als verfrühte Optimierung (Knuth) bekannt. D.h. durch automatisierte statistische Bildbearbeitung sehen wir in der digitalen Repräsentation gefälliger aus. Ein, auch optisch, besserer Mensch wird man deshalb nicht zwangsläufig. Diese Formel lässt sich auf alles was wir derzeit als KI besser LLM bezeichnen übertragen: Es optimiert statistisch Daten nach unseren Vorlieben (Bias).
    ~
    Kosmetik und Kosmetiker haben die gleiche Funktion und LLMs werden diese nicht ersetzen.
    ~
    Autonome Mobilität wäre deshalb zwangsläufig der Sieg der Fussgänger und Radfahrer über das Automobil, dass den schwächsten Verkehrsteilnehmer durch sein Modell vor Verletzung oder Tod schützt. Niemals einen Verstoss gegen die Straßenverkehrsordnung zulässt, denn mit dem Fehlverhalten anderer Verkehrtsteilnehmer ist ständig zu rechnen. Weil unsere Wahrnehmung ab 50km/h fehleranfällig (Reaktionszeit) wird, und wir im Zweifelsfall in die KI eingreifen müssten, dürfte die KI nicht schneller als 50 km/h fahren. Es werden weiterhin Menschen im Strassenverkehr sterben, KI bzw. LLMs werden daran nichts ändern, weil Strassenverkehr mit Menschen nicht zwangsläufig deterministisch ist und physikalische Gegenheiten (Masse, Energie) sich durch KI bzw. LLM nicht ändern.
    ~
    Menschen sind gewohnt Entitäten zu befragen und ihnen aufgrund von Reputation zu vertrauen. Wikipedia, das all seine Quellen und die Diskussion offenlegt ist weitaus ergiebiger als jedes LLM und Wikipedia ist vermutlich Teil vieler LLMs. Natürlich löst Wikipedia kein Probplem und beantwortet keine Fragen. Es ist ein Beitrag dazu die eigenen Unzulänglichkeiten zu kompensieren, nachzubessern (Spezialisierung) und die der Anderen durch Quellen zu belegen. Kein LLM kann diese Aufgabe derzeit leisten. Das machen oft Klick- oder Gig-Arbeiter, also Menschen.
    ~
    Nur weil ein System eine Frage beantworten kann, bedeutet es nicht zwangsläufig das ein Modell Dinge kennt oder verstanden, Kontext hat. Es ist eine Sache Dinge statistisch zu darzustellen, eine andere sie im Kontext zu beweisen. Ähnlich verhält es sich mit ChatBots die aufgrund eines Modells eine Konversation simulieren. Diese Konversation ist das Ergebnis einer Definition des Sagbaren, z.B. gesellschaftlich akzeptablen Inhalten (reinforcment learning). ChatBots sind informationstheoretisch nur eine andere Art der Präsentation bekannter Informationen.
    ~
    Fähigkeiten wie Introspektion oder Reflektion fehlen statistischen Modellen. LLMs werden nicht ohne weiteres in der Lage dazu sein ihr eigenes Verarbeiten von Daten zu beurteilen, weil es immer statistisch und nie frei von Bias ist. In wissenschaftlichen Fachgebieten können spezialisierte (kleine) LLM und andere statistische Verfahren durch Nachbesserung in Form von präsziseren Daten bessere Vorhersagen treffen oder Optimierungen vornehmen. Je größer dieses Modell wird, desto fehleranfälliger wird es, desto schlechter bis garnicht lassen sich diese Fehler beseitigen (Komplexität).
    ~
    Ergo, KI besser LLMs stellen wie Menschen eine Gefahr für Dritte oder Drittes dar bis ein Algorithmus der über jedes in einer bestimmten Turing-vollständigen Programmiersprache geschriebene Programm aussagen kann, ob es in endlicher Zeit abbricht oder für immer in einer Schleife bleibt. Bis dahin ist jedes Ergebnis einer LLM eine verfrühte statistische Optimierung auf Basis unvollständiger Daten. Weitere Probleme sind der Zustand (State) der durch Resourcen (Speicherkapazität, Elektrizität) eingeschränkt wird und unsere Umwelt die nicht zwangsläufig deterministisch ist und Datenerhebung verfälscht.
    ~
    Ob Florian Rötzer oder der Autor dieses Texts nun ein LLM oder ein Mensch ist, ist im Kontext dieses Beitrags nicht relevant. Was relevant ist, die Entität Florian Rötzer hat sehr viel Sam Altman-Bias und wenig Kenntnisse in den Bereichen Statistik oder theoretischer Informatik. Charles Stross würde behaupten, eine dieser Entitäten ist ein Stenotypist der Mächtigen bzw. Einflussreichen, cf. https://www.antipope.org/charlie/blog-static/2023/02/place-your-bets.html – ein generelles Problem bei Menschen da wir seit geraumer Zeit nicht mehr zwischen Autorität, Kompetenz und Reputation unterscheiden und die wenigsten Menschen in ihrem Alltag wissenschaftlich arbeiten oder in dieser Hinsicht spezialisiert sind.
    ~
    Bleibt nur darauf zu warten ob die Vorraussagen (von Stross) zutreffen, bis dahin wird Sam Altman eine Menge, auch verbale, Abwärme erzeugen. Ähnlich wie Kryptowährungen und die Blockchain seit über 15 Jahren nicht nachhaltig sind, macht der Hype um LLMs Diskurs über ihre Nachhaltigkeit schwierig. Es geht in erster Linie darum Kapital zur Weiterentwicklung einzusammeln oder mit den Einschränkungen von LLMs Profite zu generieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert