Ökonomie und prekäre Leiharbeit von ChatGPT und Co.

KI-Systeme wie ChatGPT benötigen enorme und teure Rechenkapazitäten. Hier ein ORNL-Supercomputer. Bild:Oak Ridge National Lab/CC BY-2.0

Hinter der Feier der Leistung von Künstlicher Intelligenz bleibt die Abhängigkeit von billiger menschlicher Arbeit zur Ausmerzung unerwünschter Inhalte im Verborgenen.

 

Wie es mit der Zukunft von KI-Systemen für natürliche Sprache wie ChatGPT aussieht, scheint nach vielen der Prognosen, die seit Ende des letzten Jahren, als ChatGPT für die Öffentlichkeit freigegeben wurde, klar zu sein: blendend und ein unaufhaltsamer Aufstieg. Ungezählte Anwendungen würden kommen, zahllose Menschen in die Arbeitslosigkeit geschickt und die Menschen von den Besserwissern und Alleskönnern überboten werden. Im Hype hat man aber vielleicht übersehen, dass die Künstliche Intelligenz enorme Ressourcen an Geld und Energie verschlingt.

Aber zunächst stößt man immer wieder auf Überraschungen, wie leicht der Chatbot auszutricksen ist, wie schnell er halluziniert, erfindet, betrügt und Desinformation von sich gibt. Was damit zusammenhängt, dass er Zusammenhänge nicht wirklich versteht, sondern nur Buchstabe für Buchstabe, Wort für Wort und Satz für Satz  nach Wahrscheinlichkeit aus dem riesigen Pool von Texten und Textarten rät. Beispielsweise wurde die Suchmaschine Google dazu gebracht, bei der Suche nach dem amerikanischen Künstler Edward Hopper an erster Stelle nicht ein wirkliches Bild von ihm zu zeigen, sondern ein KI-generiertes Bild in seinem Stil.

Manche Publikationen veröffentlichen bereits von ChatGPT geschriebene Artikel, ohne dies dem Leser mitzuteilen, es gibt bereits einige News-Websites, die KI-generierte Inhalte publizieren, mitunter unter fiktiven Autorennahmen und Hunderte von Artikeln am Tag. Wissenschaftliche Autoren haben bereits Fragmente von KI-Texten übernommen und ChatGPT als Mitautor aufgeführt, überhaupt lassen sich viele von ihm helfen oder spielen mit ihm, um zu sehen, was sich machen lässt, um von dem neuen Helfer zu profitieren. Mehr und mehr versuchen, wie die Washington Post berichtet, die KI schnell Bücher schreiben zu lassen und diese dann etwa auf Amazon mit 5-Sterne-Beurteilungen zu verkaufen. Dabei wird ChatGPT durchaus auch als Autor genannt – und am Verkauf der Bücher Geld verdient. Umgekehrt haben viele Autoren mit oder ohne KI in rasender Eile Bücher verfasst, um angeblich künftigen Lesern zu zeigen, wie sie von der Nutzung der KI profitieren können. Versprochen wird: „Der ChatGPT Millionär: Geld verdienen im Internet war noch nie so einfach“, Schreib dein Buch mit ChatGPT“ oder „Schummeln mit ChatGPT: Texte verfassen mit künstlicher Intelligenz für Schule, Uni und Beruf“.

Bislang haben die lernenden KI-Sprachmodelle von Menschen verfasste Texte gelesen und daraus durch Imitation gelernt, Texte zu generieren. Jetzt fließen immer mehr von KI generierte Texte in das Korpus ein, so dass die Sprachmodelle zunehmend nicht mehr nur menschliche Sprache reproduzieren, sondern auch ihre eigene Sprache. Das wird das Unterscheiden immer schwieriger machen, überdies wird die Informationsflut weiter verstärkt, in der von Menschen verfasste Texte zunehmend zur Ausnahme werden könnten.

Hohe Kosten und enorme Gewinnerwartungen

Interessant ist freilich der banale Hintergrund der KI-Systeme für natürliche Sprache, beispielsweise die Kosten. Und die scheinen immens zu sein.  Nach Schätzungen von Dylan Pratel, Chefanalyst von SemiAnalysis könnten die täglichen Betriebskosten von ChatGPT 3, nachdem OpenAI damit an die Öffentlichkeit gegangen ist,  700.000 US-Dollar täglich betragen haben. Der Großteil der Kosten wird durch die enorm energiehungrigen Prozessoren der Hochleistungsrechner verursacht. Die neue Version ChatGPT 4, die auf weit mehr als den 175 Milliarden Parametern der Vorgängerversion basieren soll, dürfte entsprechend teurer zu betreiben sein, dazu kommen wachsende Datenmengen und steigende Rechenleistungen. Auch der Arbeitsspeicher wird zugenommen haben, für ChatGPT 3 waren 700 Gigabyte V-RAM erforderlich. Microsoft ist bekanntlich mit 10 Milliarden bei OpenAI eingestiegen und hat  ChatGPT mit der noch relativ wenig im Vergleich zu Google benutzten Suchmaschine Bing kombiniert, was die Kosten noch einmal steigern wird. Daher entwickelt Microsoft auch einen KI-Chip namens Athena, der die Energiekosten um ein Drittel senken soll.

Letztes Jahr soll nach Informanten OpenAI über 540 Millionen US-Dollar für die Entwicklung und den Betrieb von ChatGPT investiert haben, was alleine schon zeigt, dass leistungsstarke KI-Systeme nur von reichen Konzernen wie Microsoft, Google mit Bard oder Meta mit LLaMA entwickelt werden, die den Markt unter sich aufteilen und Startup-Konkurrenten mit Neuentwicklungen aufkaufen werden. Über 400 Millionen flossen in Rechen- und Datenkosten.

Sam Altman, CEO von OpenAI, meinte denn auch, sein Unternehmen, das den Namen OpenAI zu Unrecht führt, weil nichts mehr offen ist, könnte „das kapitalintensivste Startup in der Geschichte des Silicon Valley“ sein. Die Zukunft wird dann darin liegen, dass mindestens neue und spezialisierte Anwendungen oder die Benutzung überhaupt Geld kosten wird, was viele Menschen ausschließen wird. OpenAI hat den Weg schon eingeschlagen und verlangt für die Nutzung des multimodalen ChatGPT 4 bereits Gebühren, die nicht so niedrig bleiben werden.

Altman hatte schon letztes Jahr angekündigt, dass das Ziel von OpenAI die Entwicklung einer Superintelligenz mit artificial general intelligence (AGI) ist, die alle kognitiven Leistungen erbringen oder lernen kann, zu denen Menschen imstande sind. Das wird mitunter als Sinularität bezeichnet. Natürlich wird anvisiert, dass ein solches KI-System mehr, besser und schneller arbeitet als menschliche Gehirne. Vor der Entwicklung einer AGI wird gewarnt, andere meinen, das sei noch weit entfernt oder unmöglich, für Altman ist sie „wahrscheinlich für das Überleben der Menschheit notwendig“, da „unsere Probleme zu groß seien, um sie mit den vorhandenen Mitteln zu lösen“.

Wer so hoch ansetzt, sieht im neuen Produktionsmittel auch hohe Profitraten. Damit sieht es aber noch mau aus. 2022 soll OpenAI gerade einmal 30 Millionen eingenommen und 540 Millionen ausgegeben haben. Aber Kunden und Investoren werden schnell wachsende Einkünfte in Aussicht gestellt. Wie Forbes anhand von internen Dokumente, die dem Magazin zugespielt wurden, sehen konnte, werden dieses Jahr 200 Millionen an Einnahmen erwartet oder versprochen, und 2024 soll es bereits eine Milliarde sein. Forbes merkt an, dass nicht angegeben wird, ob und wie Kosten steigen werden und wann tatsächlich Profit anfallen wird.

Billige Leiharbeiter für die „Erziehung“ der KI

Wen wundert es, dass OpenAI bei all den Gewinnerwartungen und gut bezahlten Jobs für KI-Experten auch ein Proletariat für die niederen Arbeiten beschäftigt. Da sind beispielsweise diejenigen, die der KI durch überwachtes Lernen beibringen sollen, keinen Unsinn zu machen, zu schwindeln oder zu halluzinieren. Um die Genauigkeit von ChatGPT zu verbessern, so berichtet NBC News, müssen Angestellte, die für 15 Dollar die Stunden arbeiten, beispielsweise Fotos einordnen oder vorhersagen, welchen Text als nächstes generiert wird. Die Arbeiter schaffen also die Sätze, Label und Informationen, die als Trainingsdaten dienen. Das macht auch klar, dass KI-Systeme nicht von alleine lernen und sich optimieren, sondern dass zur Datenanreicherungsarbeit viel menschliche Arbeit notwendig ist.

Die Datenanreicherungsarbeiter erhalten keine Festanstellung und werden mit 15 Dollar abgespeist, dafür aber gelockt, dass sie mit ihrer Arbeit der Menschheit dienen. So heißt es in einer Jobanzeige von Invisible Technologies, einer Zeitarbeitsfirma, für einen “Advanced AI Data Trainer”: „Stellt euch vor, ein Sprachkunstlehrer oder ein persönlicher Betreuer für eine der einflussreichsten Technologien der Welt zu sein.“ Aufgabe ist es, „Beispiele für ideale Konversationen zu schaffen, sowohl als ein Benutzer als auch als die KI zu handeln, damit die KI daraus lernen kann, Quellen zu sammeln, um ihr dabei zu helfen, große Mengen des dokumentierten Wissens der Menschheit zu lesen und zu unterscheiden, was als Fakt vs. Kontext vs. Verhaltensmuster.“ Wer sich bewirbt ist ein „engagierter Grammatiker, natürlicher Schreiber, fleißiger Leser, aufmerksamer Zuhörer, selbstbewusster Dolmetscher, synthetischer Sinnesschöpfer, ewiger Lernender, instinktiver Pädagoge“. Bei all dem Gesäusel über die wichtige Aufgabe, ist dann ein Stundenlohn anfänglich von 15-20 Dollar und Aufstiegsmöglichkeiten bis zu einem Stundenlohn von 40 Dollar nicht sonderlich angemessen.

Weltweit werden Datenanreicherungsarbeiter angestellt, um den Lohn zu drücken. So soll OpenAI, wie Time berichtet, Menschen aus Kenia für bis zu  2 Dollar die Stunde beschäftigt haben. Die werden durch die kalifornische Firma Sama bereitgestellt, die Arbeiter in Kenia, Indien und Uganda für einen Lohn zwischen 1,32 und 2 Dollar Konzernen wie Meta, Google, Microsoft oder eben OpenAI vermittelt, um unerwünschte, „toxische“ Inhalte aus den KI-Systemen zu labeln. Dazu werden Texte mit expliziten Beschreibungen vorgelegt. Sama bekam dafür von OpenAI 12,5 Dollar die Stunde. Im Februar 2022 beendete Sama die Zusammenarbeit mit OpenAI, das Unternehmen soll Ende 2022 in Osteuropa und Lateinamerika neben Programmieren zahlreiche Leiharbeiter für „data labeling“ angestellt haben.

Partnership on AI, ein Zusammenschluss von Mitarbeitern von Universitäten, Medien, Unternehmen und der Zivilgesellschaft, die sich mit KI verbundenen Themen widmen, schreibt: „Trotz der grundlegenden Rolle, die diese Fachleute für die Datenanreicherung spielen, zeigen immer mehr Untersuchungen die prekären Arbeitsbedingungen, denen diese Arbeitnehmer ausgesetzt sind. Dies könnte das Ergebnis der Bemühungen sein, die Abhängigkeit der KI von dieser großen Zahl von Arbeitskräften zu verbergen, wenn die Effizienzgewinne der Technologie gefeiert werden. Aus den Augen, aus dem Sinn.“ Deep Mind von Google hat sich auf die „Best practices for data enrichment“ von Partnership on AI verpflichtet, was bedeutet, mindestens den Mindestlohn im jeweiligen Land zu zahlen. In Kenia liegt der monatliche Mindestlohn seit 2022 bei 130 Dollar. OpenAI ist Mitglied der Organisation, aber hat sich nicht verpflichtet.

Ähnliche Beiträge:

12 Kommentare

  1. Das ist alles ein relativ verzweifelter Versuch, dem tiefen und breiten ökonomischen Jammertal, das längst in Sichtweite ist, durch Entfachung eines neuen Technologie-Hypes zu entrinnen. Nachdem es mit Augmented oder Virtual Reality eher mau läuft, bestenfalls in Nischen läuft, muss jetzt die genau so tendenziös geframte Künstliche Intelligenz herhalten. Die Wahrscheinlichkeit ist hoch, dass der von Rötzer beschriebene immense Aufwand sich in einem Umfeld mit tendenziell fallender Kaufkraft sich nicht lukrativ entwickelt und bis in zwei Jahren, auch bei globalem business as usual, was alles andere als sicher ist, ein Grossteil der hineingeblasenen heissen Luft wieder entwichen ist. Mehr als eine etwas bessere Netzsuche und die eine oder andere spezifische Anwendung, für die genügend Leute zu bezahlen bereit sind, wird bis dann nicht übrig sein. Zwar fällt die Uninspiriertheit, Belanglosigkeit KI-generierter Texte etc. nicht weiter auf, da auch die menschliche Produktion unter kapitalistischen Auspizien meist auf bescheidenem Niveau verharrt. Aber der relative kommerzielle Misserfolg, schon heute absehbar, wird für Ernüchterung sorgen. Der Ansatz, den Aufwand für die Erledigung einer Aufgabe stetig zu steigern, stösst an harte Grenzen.

    Für den euphorischen Moment bleibt allerdings nur, von den Anbietern zu fordern, die Vorspiegelung falscher Tatsachen zu unterlassen. Wo kein Ich, kein Bewusstsein existiert, soll man auch keines sprachlich herbeifabulieren. Der Begriff ‚chatten‘ ist völlig unangebracht und irreführend, in der Ich-Form formulierte Antworten der Software sind grober Betrug. Menschen interagieren mit einer Maschine, deren ’neuronale Netze‘ mit den Neuronen unseres Gehirns noch weit weniger zu tun haben, als die Innereien einer Märklin-Lok mit ihrem Vorbild.

  2. Die Physikerin Frau Prof Dr Sabine Hossenfelder meint in einem ihrer YouTube-Videos (engl), dass KI wohl einen Teil der von ihr generierten Texte verstehen könnte. Immerhin ist es ja sogar schon gelungen, dass eine entspd trainierte Ki selbständig wichtige physikalische Gesetze abgeleitet, quasi (wieder-)entdeckt hat.

    1. Können natürliche neuronale Netzwerke (oder auch Menschen) nun durchaus Texte wiedergeben (oder zusammenfassen), welche diese nicht wirklich inhaltlich verstanden haben (wobei hier auch die Frage wäre, was man nun als „verstehen“ eines Textes bzw. Sachverhaltes ansieht – bzw. wie man die Bedeutung des Wortes „verstehen“ bzw. „verstanden“ definiert)?

      Kann es sein, dass die „entsprechend trainierte KI“ bei den Trainingsdaten (mit denen die KI trainiert wurde) nun im Prinzip auch die „wichtigen physikalischen Gesetze“, welche von der KI später „wieder entdeckt“ wurden, dabei waren? Falls ja, so könnte die entsprechend trainierte KI diese physikalischen Gesetze nur so wie ein Art Papagei wiedergegeben haben (also polemisch: ohne Sinn und Verstand Dinge wiedergegeben haben). Falls das Training übrigens in mehreren Schritten der Fall war, wobei als Grundlage z.B. eine Version von ChatGPT, welche vor allem mit „Texten aus dem Internet“ trainiert wurde, verwendet worden war, welche dann anschließend mit einem weiteren Training nun auf Physik (oder allgemein auf Teile des MINT-Bereichs) trainiert wurde, so reicht es nicht aus (um auszuschließen, dass bei den Trainingsdaten die wiederentdeckten physikalischen Gesetze nicht dabei waren), dass bei dem Spezialtraining die wiederentdeckten physikalischen Gesetze nicht als Trainingsdaten dabei waren, sondern diese dürften auch nicht im initialen Training dabei gewesen sein. Solche Trainingsdaten können darüberhinaus auch indirekt vorhanden gewesen sein oder die Gewichte (und Knoten) eines neuronalen Netzwerks, welches solche Trainingsdaten (direkt oder indirekt) beinhaltete, wurden als initial Gewichte (mit Duplikation der Knoten) eines so trainierten neuronalen Netzwerks verwendet.

      Soll heißen: Interessant wird es erst, wenn die KI nun „physikalische Gesetze“ widerlegen bzw. entdecken würde, dessen Widerlegungen vorher unbekannt waren (also z.B. vorher unbekannte Paradoxa innerhalb von gewissen physikalischen Theorien, wobei eine physikalische Theorie immer auch eine mathematische Theorie ist, welche sich nicht ohne Modifikation der Theorie beheben lassen bzw. irgendwie anders marginalisieren lassen) bzw. dessen Gesetzmäßigkeit vorher unbekannt waren (aber hinterher durch Experimente etc. verifiziert/falsifiziert wird).

  3. Energie für 700000$ täglich und dann dürfen die Menschen zusätzlich gut die Kosten der Klimafreundlichen Energie berappen.
    Die PR Agenturen sind hervorragende Blender, gerade das Silicon Valley erfährt hat gerade für die high tech Industrie und etlichen Start UPS einen Bankencrash hingelegt. Die alten harten Währungen erfahren im Moment eine Wertbereinigung und wird reale wirtschaften stärken. Dann bleibt noch die Situation um die Rohstoffe die benötigt werden und schlussendlich auch zu bezahlen.
    Die Isolierung vom Westen durch dem Westen, wird eine Generation benötigen um auch mit anderen konkurrieren zu können.
    Vielleicht ist das der Grund warum einige Akteure die Welt in „Brand setzen“…

  4. ChatGPT ist ein stochastischer Papagei trainiert mit bullshit den Menschen zuvor ins Netz geschrieben hatten.
    Es ist teuer. https://jacobin.de/artikel/die-kuenstliche-intelligenz-loest-probleme-die-wir-nicht-haben-chat-gpt-chatbot-generative-ki-alexander-brentler/

    Das menschliche Hirn liest aus Unsinn Sinn. Deshalb haben Sterne Namen, Bilder, Geschichten.
    Wer glaubt ChatGPT sei intelligent macht den selben Fehler. Es zeigt gleichzeitig, wieviel bullshit vorhanden ist.
    https://kritisch-lesen.de/rezension/arbeit-fur-die-tonne Graeber, Bullshit Jobs

    Früher konnt ma Wissenschaft nur betreiben wenn man Mathe kennt.
    Heut sind bullshitter stolz drauf Mathe nicht zu kennen. Kurt Gödel und Joseph Weizenbaum drehn sich im Grab.
    Auch Harry Frankfurt.

    Es sind Juristen, Betriebswirtschafler, Politiker die Dunning-Kruger geben und die blöde Masse glaubts.

    1. ChatGPT ist ein stochastischer Papagei trainiert mit bullshit den Menschen zuvor ins Netz geschrieben hatten.

      Das stimmt. Aber das Gehirn, wenn man es genau nimmt, ist es eigentlich auch.

      1. „Aber das Gehirn, wenn man es genau nimmt, ist es eigentlich auch.“
        … besonders das bei Vielen einer bestimmten Berufsgruppe.
        SCNR

      2. Nehmen wir an, dass das menschliche Gehirn nur ein neuronales Netzwerk ist. Dann ist es trotzdem so, dass neuronale Netzwerk des Menschen (also das Gehirn) eben nicht nur aus Texten (und der gesprochenen Sprache) lernt, d.h. das Training des menschlichen neuronalen Netzwerks findet nicht nur über Texte (und das gesprochene Wort) statt, sondern auch über jegliche weitere Interaktion mit der „Außenwelt“. Die Klassifikation der „Trainingsdaten“ durch das menschliche Gehirn findet darüberhinaus auch durch die Sinneseindrücke (und die dazugehörigen gesammelten Erfahrungen) statt, wodurch eben in Bezug zu vielen Dingen eben nicht nur ein stochastisches Nachplappern (von Aussagen von Anderen) stattfindet (und durchaus auch Dinge geschrieben bzw. ausgedrückt werden können, welche eben nicht der wahrscheinlichsten Antwort entspricht, sofern eben nur die bis dahin gehörten und gelesenen Aussagen zur Ermittelung der wahrscheinlichsten Antwort herangezogen werden). Man muss hier auch überlegen, dass die meisten Menschen eben für die meisten Substantive (oder Entitäten), welche diese kennen, die Substantive (Entitäten) eben nicht nur mit irgendwelchen textlichen oder gesprochenen Aussagen verknüpft sind, sondern auch mit Informationen, welche durchaus aus anderen Sinneseindrücken (etc.) herrühren. D.h. für die meisten Aussagen haben die meisten Menschen eben – im Gegensatz zu Chatbots wie ChatGPT – nun einen erweiterten Kontext (und erweiterte Semantik), so dass durchaus fraglich ist, ob die Menschen eben auch nur stochastische Papageien sind (und zwar auch gerade dann, wenn das menschliche Gehirn auch nur ein neuronales Netzwerk ist). Vor allem da eben auch dieser zusätzliche Kontext nun für die Bildung von geschriebenen (oder gesprochenen) Aussagen eines Menschen verwendet werden und darüberhinaus eben auch die erweiterte Semantik, welche eine Person eben bzgl. der intendierten Aussage hat, zur syntaktischen Bildung der gesprochenen oder geschriebenen intendierten Aussage verwendet wird.

        Oder anders ausgedrückt: Ich kann einer Aussage, dass das menschliche Gehirn auch nur ein neuronales Netzwerk ist (mit durchaus „komplizierteren Verbindungen zwischen den einzelnen Neuronen“ als bei den bisherigen künstlichen neuronalen Netzwerken) zustimmen, der Aussage, dass der Mensch auch nur ein stochastischer Papagei ist, kann ich dagegen im allgemeinen nicht zustimmen. Bei der Einschränkung der Aussage darauf, dass bestimmte Personen – im Prinzip – auch nur stochastische Papageien sind, kann ich dagegen natürlich zustimmen (bzw. würde der Aussage nicht widersprechen).

    2. Richtig, vieles was im Internet steht, kann man als „Bullshit“ ansehen, aber dann sind natürlich nicht alle Texte, welche im Internet stehen, als Bullshit anzusehen. Z.B. bei Wikipedia-Artikeln (egal ob englischsprachig oder deutsch), welche eben auch Texte im Internet sind, sind die Artikel zu Themen aus dem MINT-Bereich z.B. als durchaus von einer relativ hohen Qualität anzusehen – bei Artikeln zu anderen Themen sieht es anders aus, da bei anderen Themen durchaus das Interesse bei unterschiedlichen Gruppierungen bestehen, den Themen nun z.B. einen „Spin“ in die eine oder andere politische Richtung zu geben (bzw. gewisse Dinge besser oder schlechter dazustellen als diese sind). Bei manchen Themenbereichen ist es natürlich auch so, dass es unterschiedliche Perspektiven/Blickrichtungen gibt (und unterschiedliche Argumente/Gegenargumente für bzw. gegen etwas), wobei es durchaus sinnvoll sein kann – ohne Bewertung (welche Blickrichtung/Perspektive nun richtig oder falsch ist) – die Argumente/Gegenargumente der jeweiligen (verschiedenen) Perspektive(n) zu kennen. Es ist allerdings so, dass man durch das „pure reinkippen“ von solchen Texten als Trainingsdaten (unter Umständen nach vorheriger Aussortierung von gewissen Texten) eine KI dieses nicht lernen lassen kann, sofern die Texte nicht mit entsprechenden Metadaten versehen sind (bzw. im Text explizit steht, dass es sich um Argumente/Gegenargumente einer bestimmten Perspektive zu einem bestimmten Thema geht), sondern die KI eher – je nachdem welche Perspektive nun häufiger angenommen wird – dazu angelernt wird, eine bestimmte Perspektive (und unter Umständen zugehörige Argumente/Gegenargumente) zu vertreten (bzw. nachzuplappern – sowie manche Schüler auch durchaus in der Schule in gewissen Fächern eine gute Note bekommen haben, wenn diese die Meinung des Lehrers bzw. der Lehrerin nachplappern konnten). Weiter lernt eine KI (bzw. die neuronalen Netzwerke) eigentlich nicht direkt durch (Trainings-)Texte, was nun eine ordentliche Argumentation oder Begründung beinhaltet.

      Natürlich kann eine KI (bzw. ein neuronales Netzwerk) auch aus Bullshit-Texten etwas lernen, also z.B. lernen wie man sich ausdrücken kann bzw. wie man Dinge formulieren kann und auch Satzbau und Grammatikregeln kann eine KI aus solchen Texten lernen (sofern die Texte zwar inhaltlich Bullshit sind, aber eben ansonsten syntaktisch korrekt sind). Nur sollte eine KI aus solchen Bullshit-Texten eben nicht lernen, was man zu gewissen Dingen schreibt (da eine KI eben sonst später auch inhaltlichen Bullshit nachplappert). Nur ein Trennen des „Wie“ vom „Was“ ist eben durch ein pures Training mit Texten eigentlich nicht möglich (bzw. zumindest nicht einfach möglich). Weiter ist natürlich witzig, dass es natürlich klare grammatikalische Regeln (in allen natürlichen Sprachen) gibt, so dass man natürlich von einem abstrakten Standpunkt aus gesehen, einer KI durchaus auch auf andere Art und Weise beibringen könnte, wie eine KI sich nun ausdrücken sollte (wobei es natürlich durchaus ein Problem ist bzw. sein könnte, nun einem neuronalen Netzwerk nun nur grammatikalische Regeln beizubringen ohne gleichzeitig der KI ein Initialtraining zu geben, was eine KI nun zu gewissen Themen schreiben sollte).

      Witzig ist natürlich auch, dass man inzwischen auch gerne KI (und Machine-Learning-Methoden) in den Bereichen einsetzt, in denen man nicht weiß, wie die zu trainierende Zielfunktion eigentlich aussieht, und man dementsprechend mit Trainingsdaten nun versucht eine unbekannte Zielfunktion zu approximieren. Wenn man natürlich weiß, wie die zu approximiernde Zielfunktion aussieht, muss man kein neuronales Netzwerk trainieren, um das Problem zu lösen (bzw. eine Approximation der Zielfunktion zu erhalten), man kann dann stattdessen – was billiger (kostengünstiger) ist – direkt eine
      Approximation der Zielfunktion (bzw. die Zielfunktion selbst) verwenden. Noch witziger ist dabei, dass man in vielen Bereichen dazu noch nichtmal wirklich weiß, ob die Trainingsdaten nun gut oder schlecht sind (oder z.B. auch nicht genau weiß, wie man nun die Trainingsdaten jeweils zu klassifizieren hat) oder auch die Klassifikation der Trainingsdaten nun abhängig von einer eingenommenen Perspektive (Blickrichtung) ist. Womit man damit im Prinzip nicht weiß, ob man – bzgl. eines Approximationsmaßes (wobei die Bestapproximation einer Funktion, sofern die Zielfunktion nicht durch die approximierenden Funktionen exakt dargestellt werden kann, durchaus von dem verwendeten Approximationsmaß abhängig ist, d.h. die Bestapproximation bzgl. zwei unterschiedlicher Approximationsmaße nicht identisch sein muss) – durch fortwährenden Training einer KI (bzw. eines neuronalen Netzwerks) mit Trainingsdaten nun die (unbekannte) zu approximierende Zielfunktion immer besser approximiert oder aber, ob man durch die genutzten Trainingsdaten (z.B. ab einem gewissen Punkt) nun die Güte der Approximation (bzgl. eines Approxmationsmaßes) verschlechtert. Nur da man die Zielfunktion nicht kennt (und damit auch Andere/Dritte mit hoher Wahrscheinlichkeit die Zielfunktion nicht kennen) ist ein Nachweis, dass sich die Approximationsgüte verschlechtert (oder auch durch das Training eine Funktion approximiert wird, welche sich maßgeblich von der eigentlichen Zielfunktion und einer Bestapproximation unterscheidet), nur schlecht möglich, womit man natürlich einfach behaupten kann, dass die Zielfunktion approximiert wird, und man eben nur durch irgendwelche Studien oder auch durch das Finden (und vorherige Suchen) von Beispielen, bei denen die KI zu einem „falschen“ Ergebnis kommt (wobei hierfür zumindest möglich sein muss, dass man Beispiele/Trainingsdaten eindeutig klassifizieren kann), ein solcher Nachweis in gewisser Weise möglich, wobei natürlich, nach dem Finden eines solchen Beispiels, das Beispiel dann als weiteres Trainingsdatum verwendet werden kann (und dann behauptet werden kann, dass das Problem behoben wäre). Soll heißen in gewissen Bereichen bieten sich KI-Methoden (bzw. Machine-Learning-Methoden) geradezu an, um damit Geld zu verdienen (durch die Behauptung, dass die KI-Methoden nun ein Problem lösen bzw. besser lösen würden als jeder Mensch), ohne dass ein wirklicher Nachweis möglich wäre, dass dieses wirklich der Fall ist.

      Ansonsten sind „Bullshit“-Texte natürlich auch für das Training von KI-Modellen geeignet, welche menschliches Verhalten vorhersagen sollen bzw. die Antworten vorhersagen sollen, welche Menschen als Antwort zu gewissen Themen geben. So etwas ist dann sehr gut für die „Meinungsbildung“ von Menschen geeignet (Anwendungsbereiche: PR¹, Marketing etc.).

      In Bezug zu der Aussage „Früher konnte man nur Wissenschaft betreiben, wenn man Mathe kennt.“ ist festzustellen, dass dieses – historisch betrachtet – nur für ein paar hundert Jahre menschlicher Geschichte wirklich (maximal) gilt (wobei natürlich aus heutiger Sicht die meisten historischen wissenschaftlichen Arbeiten, welche nicht gewisse Qualitätsmerkmale bzgl. logischer Argumentation/Schlussfolgerungen oder auch Nutzung der Mathematik beinhalten, aus heutiger Sicht eher als unwissenschaftlich betrachtet werden, aber eben zu der Zeit als die Texte verfasst worden waren durchaus als so etwas wie eine wissenschaftliche Arbeit angesehen wurden – wobei dieses dann doch eher als „Gelehrten“-Arbeit oder ähnliches angesehen wurde, da eben das Wort „wissenschaftliche Arbeit“ dann doch eher ein relativ neuer Begriff ist).

      Ansonsten sind gewisse Dinge eben nicht nur mit Juristen, BWLern und Politikern (und Dunning-Kruger) zu erklären, sondern auch damit, dass eben durchaus Personen (aus dem MINT-Bereich) Forschungsgelder etc. haben möchten und man deshalb gewisse Dinge eben auch so vermarkten muss, dass man eben Geld einnimmt (unter Beachtung, dass viele eben die Ungleichungen Geld>Wahrheit bzw. Geld>Integrität nutzen, wobei Geld auch durch Profit und Integrität auch durch Moral in den Ungleichungen ersetzt werden kann).

      ps. Für das Schreiben dieses Beitrags habe ich ein neuronales Netzwerk verwendet, welches ich darauf trainiert habe, solche Beiträge zu schreiben (aus xkcd.com/2173 geht hervor, wie dieses ps zu verstehen ist).

      ¹) Abhängig von der Perspektive/politischen Einstellung/ Haltung kann die Abkürzung PR natürlich auch in einigen Fällen durch das Wort Propaganda ersetzt werden (nur was eine Person als Propaganda ansieht und was nicht, hängt zumeist von der jeweiligen Perspektive – also z.B. der politischen Einstellung – der Person ab).

      1. Lol. Gute Argumente. Aber Du solltest Deinem neuronalen Netzwerk die Bandwurmsätze abtrainieren und ihm beibringen, Absätze zu machen.

  5. Dank an den Verfasser. Ein informativer und materialreicher Artikel, vieles wusste ich, obwohl aus der Branche komme, nicht oder nicht so en detail. Das gefällt mir besser als Sofakriegsberichterstattung.

  6. Das ist im Grundsatz gar nicht so neu. Ich habe 2004/05 (über eine Leiharbeitsfirma) als quality rater für Google gearbeitet. Es ging darum, Suchergebnisse zu bewerten, also quasi die Algorithmen zu „trainieren“ bzw. zu verfeinern. Das wurde so allerdings nicht direkt gesagt. Google warb damit, dass man Teil einer großen internationalen Gemeinschaft sei, bei freier Zeiteinteilung von zu Hause aus arbeiten können und ähnlicher Hohlsinn. Die Bezahlung betrug übrigens auch 15 €/h. Das war damals sogar noch einigermaßen viel Geld.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert