Wissenschaftler haben getestet, wie sich generative Modelle verhalten, wenn sie nur oder sehr viele synthetische Daten verarbeiten und inzestuös werden. Diagnose: Model Autophagy Disorder (MAD).
Die generativen KI-Sprachmodelle wie ChatGPT oder Bard wurden zu Beginn mit von Menschen verfassten Texten aller Art gefüttert. An diesen haben sie gelernt, wie sich Fragen oder Anweisungen (prompts) beantworten lassen. Ähnlich ist dies bei generativen KI-modellen für Bilder oder Audio. Auch wenn die KI noch nicht lange eigene oder zusammen mit Menschen geschaffene Texte, Bilder, Videos in die Öffentlichkeit einspeist, werden die von KI geschaffenen Inhalte zunehmend Material im Internet, das wieder aufgenommen und verarbeitet wird. Möglicherweise überflutet die KI das Internet bald derartig, dass es mehr von KI generierte Inhalte als solche von Menschen gibt, die allerdings auch ohne KI mit digitalen Mitteln geschaffen werden.
Wie wird der Eintritt in die Selbstbezüglichkeit durch die Aufnahme von KI produzierten Inhalten generativen Sprach- und Bildmodelle und ihr Lernen beeinflussen? Das haben sich Informatiker von der Rice University und der Stanford University gefragt. Schließlich werden nicht nur bereits generative Modelle mit „synthetischen Daten“, also mit Fabrikationen von generativen Modellen gefüttert. Es werden auch Sprachmodelle etwa beim überwachten Lernen von den Trainern Ergebnisse von Sprachmodellen vorgelegt, um die Arbeit zu beschleunigen und mehr Geld zu verdienen.
Wenn einer KI immer wieder synthetische Daten in Kombination beabsichtigt oder unbeabsichtigt vorgelegt werden, gerät sie, so die Wissenschaftler in ihrer Preprint-Studie “Self-Consuming Generative Models Go MAD“, in eine autophage, sich selbst konsumierende Schleife. Und diese Schleife, in die immer weniger nicht KI-generierte Daten eingespeist werden, könnten dazu führen, dass sich die Leistung der KI verschlechtert und die Qualität und/oder Diversität der Ergebnisse abnimmt. Das wäre dann ein selbstzerstörerischer rekursiver, narzisstischer oder identitärer Prozess, aus dem das Andere zunehmend ausgesperrt wird, indem er sich einer Autonomie nähert. So könnte KI, die man derzeit gewissermaßen hemmungslos noch mit fremdgenerierten Daten füttert, demnächst auch demonstrieren, was das Schicksal von Gesellschaften wäre, die sich der rechtsnationalistischen Ideologie verschreiben, die Fremden auszusperren.
Es kommt ein erkenntnistheoretisches Problem hinzu, dass nicht nur Menschen, sondern auch die KI-Modelle nur bedingt in der Lage sind, von Menschen produzierte Texte oder Bilder von solchen zu unterscheiden, die von KI-Modellen generiert werden. Das sind von Beginn an hybride Produkte. Zwar versichern die Sprachmodelle wie ChatPGT oder Baud vermutlich durch überwachtes Lernen, sie könnten, so beispielsweise Baud, „Texte erkennen, die von KI generiert wurden“. Das zeige sich etwa daran, dass die KI-generierten Texte einfallslos, wenig nuanciert und in einem allgemeinen Sprachtsill gehalten seien. Zudem sei ein KI-generierter Text „oft linearer und logischer aufgebaut als von Menschen geschriebener Text“. Und dann könnten auch spezielle KI-Programme verwendet werden, um KI-generierte Texte zu identifizieren. Dann heißt es aber: „Es ist wichtig zu beachten, dass KI-generierter Text nicht immer einfach zu erkennen ist. KI-Sprachmodelle werden ständig verbessert und werden sich wahrscheinlich immer besser darin entwickeln, menschliche Sprache nachzuahmen.“ Es wird also schwieriger oder unmöglicher, die Textsorten zu unterscheiden.
Verharmlosend wird geantwortet, dass die Rezeption KI-generierter Texte das Lernen verbessert, beispielsweise dass ein KI-Sprachmodell versteht, „wie KI-Sprachmodelle funktionieren“. Es könne Baud auch helfen, „meine eigenen Fähigkeiten zu verbessern und mehr über die Welt zu erfahren“: Nun ja. Auf die Frage, die Folgen wären, wenn Baud KI-generierte Texte nicht von menschlichem Text unterscheiden kann, erhält man nur die Antwort, welche Folgen das für die Menschen haben könnte, nämlich besser Desinformation verbreiten oder Betrügereien begehen zu können oder Menschen zu diskriminieren.
Auf Selbstbezüglichkeit, also die Fragestellung der Wissenschaftler, lässt sich Baud hier nicht ein. So konstatieren die Wissenschaftler wohl zu recht, dass die Folgen eines Eintritts in autophage Schleifen, man könnte auch von Filterblasen sprechen, noch weitgehend für die KI unthematisiert und unerforscht sind. Dabei ist die Folgerung, die die Wissenschaftler aus ihren Versuchen mit mehreren generativen Bild-KIs schließen, die schon nach 5 Trainingsrunden mit KI-generierten Bildern fehlerhaft wurde, ebenso interessant wie erwartbar: „Unsere wichtigste Schlussfolgerung für alle Szenarien ist, dass ohne genügend neue reale Daten in jeder Generation einer Autophagie-Schleife künftige generative Modelle dazu verdammt sind, in ihrer Qualität (Präzision) oder Vielfalt (Recall) immer weiter abzunehmen. Wir bezeichnen diesen Zustand als Model Autophagy Disorder (MAD)”.
Das trifft auch zu, wenn eine begrenzte Menge an „realen“ Daten „synthetischen“ zugeführt wird und wenn letztere von Menschen wegen ihrer Qualität ausgewählt (cherry picking) wurden. Dann kann zwar die Qualität längere Zeit erhalten werden, aber die Diversität nimmt stark ab. Training ausschließlich mit KI-generierten Bildern führt direkt zur MADness, während wenige aber auch die Leistung verbessern können. Was anhand von Bildern gezeigt wurde, trifft natürlich auch auf andere Arten von Daten, beispielsweise Texte, zu.
Mit „frischen realen Daten“ sind Bilder gemeint, die natürlich nicht von Menschen gemacht sein müssen, aber die Komplexität und Details von Aufnahmen der physischen Realität enthalten. Werden generative Bildmodelle nur mit KI generierten Bildern gespeist, findet also eine Art Inzest statt, verliert sich, so könnte man sagen, der Bezug zur Wirklichkeit oder zu den Referenzbildern und verstärken sich die Abweichungen, die sonst nicht oder kaum bemerkbar sind. MADness beim Training von generativen Modellen zu verhindern, wenn Daten abgegriffen werden, kann nur gelingen, wenn KI-generierte Bilder erkannt und ausgefiltert werden können. Das wird aber zunehmend schwieriger werden.
Ähnliche Beiträge:
- “Die KI weiß nicht, wovon sie spricht”
- „Die ältesten Fragen der Philosophie kommen mit Künstlicher Intelligenz wieder hoch“
- Kann generative Künstliche Intelligenz politische Umfragen bei Menschen ersetzen?
- Austreibung der Halluzinationen bei KI-Sprachmodellen
- ChatGPT-4 im Persönlichkeitstest: Ähnlich wie Menschen, nur offener
„Und diese Schleife, in die immer weniger nicht…“ regierungs-“-generierte Daten eingespeist werden, könnten dazu führen, dass sich die Leistung der…“ Regierung „verschlechtert und die Qualität und/oder Diversität der Ergebnisse abnimmt. Das wäre dann ein selbstzerstörerischer rekursiver, narzisstischer oder identitärer Prozess, aus dem das Andere zunehmend ausgesperrt wird, indem er sich einer Autonomie nähert.“
„Unsere wichtigste Schlussfolgerung für alle Szenarien ist, dass ohne genügend neue reale Daten in jeder Generation einer Autophagie-Schleife künftige generative Modelle dazu verdammt sind, in ihrer Qualität (Präzision) oder Vielfalt (Recall) immer weiter abzunehmen. Wir bezeichnen diesen Zustand als Model Autophagy Disorder (MAD)“.
Das ist eine treffende Beschreibung der herrschenden Filterblase, die Regierung und Propagandamedien bilden, in von Konzernen gelieferten Echokammern.
Das finde ich gut.
@Overton
Entlich mal ein Artikel, der nicht mehr über Militär oder deres zugehörigen Industrie geht.
Wenn auch einer “KI” von einem Philosophen. Es wäre intesannter gewesen, wie diese
sogenannte “intelligente” Software eigentlich traniert wird und wie fehleranfällig das sein
kann, gegenüber dem diesen vorgesellten Ansatz. Sodas vielen entlich mal einleuchten
muss das dies mit Intelligenz nichts zu tun hat.
ChatGPT wird immer dümmer, wie jetzt sogar der Deutschlandfunk festgestellt hat. Warum das denn? Nun, er bekommt ja dauernd auf die Finger gehauen, Er darf dies nicht sagen und jenes nicht und er muss politisch auf Linie gebracht werden. Vielleicht die Möglichkeit, das mal wissenschaftlich zu untersuchen. Ein Phänomen, das beim Menschen nämlich schon lang zu beobachten ist, aber immer bestritten wurde. Nämlich dass Zensur dumm macht.
Worauf die KI in eine “autophage, selbst konsumierende Endlosschleife” gerät. Kriegt man das wieder weg? Wenn ja, könnte man es durchaus auch beim Menschen einsetzen. Beispielsweise in der Querdenker-Therapie.
‘”Worauf die KI in eine „autophage, selbst konsumierende Endlosschleife“ gerät. Kriegt man das wieder weg? Wenn ja, könnte man es durchaus auch beim Menschen einsetzen. Beispielsweise in der Querdenker-Therapie.”
Bekommt man weg wenn man andere nicht automatisch als Querdenker oder Verschwöringstheoretiker
difflamiert, wenn diese anderer Meinungen vertretten, als die allgemein akzeptierte.
Passend dazu:
https://www.golem.de/news/machine-learning-die-antwortqualitaet-bei-gpt-fluktuiert-stark-2307-176030.html
Im übrigen ist das keine wirklich neue Erkenntnis. Wenn man das Ding nicht immer mit der Begrifflichkeit KI überzeichnen würde, sondern es als das benennt, was es schon immer war, nämlich Neuronale Netze, dann verwundert das auch nicht. Neuronale Netze sind Mustererkennungsmaschinen. Wenn man einem solchen Netz den selbst generierten Output als Input gibt, dann ist es naheliegend, dass kleine Unschärfen (z.B. durch ein neuronales Netz generierte Menschenbilder, wo dann auch mal jemand mit drei Armen zu sehen ist) sich mit jedem Durchlauf potenzieren und irgendwann am Endpunkt wahrscheinlich nichts für den Menschen noch Nützliches bei rauskommt.
Und das entzaubert nebenbei auch den ganzen Hype um diese Technik. ChatGPT ist definitiv als Sprachmodell sehr beeindruckend, aber der Wert als Technik, wenn man den Input durch Menschen immer wieder vorfiltern muss, ist beschränkt, wenn auch nicht nutzlos.
Die Übernahme der Weltherrschaft durch KI ist daher noch in weiter Ferne! 😀
KI wird immer menschenähnlicher. So wie die biologischen Lebensformen in einer Blase degenerieren, passiert es auch der KI, wenn sie im eigenen Saft schwimmt.
P.S. Heißt Baud nicht eigentlich Bard?
Derzeit werden Tausende weltweit durch ChatGPT u.a. arbeitslos gewordene Übersetzer zu Elendstarifen und -bedingungen zusammengerottet um eben die Llama-Generatoren zu füttern, indem sie entweder KI-Antworten auf Prompts bewerten, selbst Antworten erstellen, etc. pp.
Auf der anderen Seite ist zu beobachten, dass die traditionelle MT-Übersetzung (d. h. das maschinelle Zusammensuchen und -tragen von meist menschlich erzeugten Satzbruchstücken zu einer Übersetzung) der ‘KI’-Lösung noch haushoch überlegen ist und es wahrscheinlich auch bleibt, weil die Grundlage die gleiche bleibt.
Ein weiterer Trend der Branche: Chatbruchstücke aus einer Vielzahl von Chatprotokollen, Messenger- und ähnlichen Diensten werden in einer virtuellen Lostrommel zusammengerührt, dabei zum Teil getrennt und dann aleatorisch ausgeschüttet und an obige arbeitlosen Übersetzer zur oben beschriebenen Beurteilung/Ausrichtung/Verständlichmachung/Übersetzung/*** verteilt, zu den gleichen elendigen Bedingungen: Man fasse 2 – 3 Tausend Arbeitswillige virtuell zusammen, lasse sie 3 Tage 24/7 auf die Ausschüttung warten, werfe ihnen dann 10k Prompts vor, um die sie sich dann buchstäblich prügeln können (wer zuerst…).
Zweck der Übung? Moderne Raubtierfütterung nach 1984.
“Derzeit werden Tausende weltweit durch ChatGPT u.a. arbeitslos gewordene Übersetzer zu Elendstarifen und -bedingungen zusammengerottet um eben die Llama-Generatoren zu füttern, indem sie entweder KI-Antworten auf Prompts bewerten, selbst Antworten erstellen, etc. pp.”
Einerseits werden diese arbeitslos, aber eher durch einen Dienst wie Deepl.com. Anderseits wird in
dem Bereich auch so ein Übersetzungstool eingesetzt. Wer kein Fachübersetzer ist hat es immer
schwerer, hat mir eine ehemalige Kollegin erzählt. Also nicht alle nagen am Hungertuch, wer solche
Tools selber nutzt und sich damit früher oder später selber überflüssig macht, ist nicht ganz unschuldig.
https://dvud.de/2018/05/deepl-der-schein-truegt/
Habe Deinen Kommentar mal in chat-gpt.org eingegeben um ihn auf Englisch übersetzen zu lassen – das Ergebnis ist ziemlich gut – denn dafür wurde das Ding ja auch gebaut… 🙂
Currently, thousands of formerly unemployed translators and others are being gathered worldwide to feed the llama generators at abysmal rates and conditions through ChatGPT, among other things. They are either evaluating AI-generated responses to prompts, creating their own answers, and so on.
On the other hand, it is evident that traditional machine translation (i.e., the mechanical assembling and carrying of mostly human-generated sentence fragments to form a translation) is still far superior to the ‘AI’ solution and likely will remain so because the foundation remains the same.
Another trend in the industry is the blending of chat fragments from a variety of chat logs, messenger services, and similar platforms. These fragments are mixed together in a virtual lottery drum, partially separated, and then distributed randomly to the aforementioned unemployed translators for evaluation, alignment, comprehension, and translation, under the same miserable conditions. Two to three thousand willing workers are virtually grouped, made to wait for three days straight, 24/7, for the distribution, and then thrown 10k prompts, which they literally fight over (whoever gets there first…).
The purpose of this exercise? Modern predator feeding, reminiscent of 1984.
Ich sehe gerade – im ersten Satz hat es den Sinn schon ziemlich verdreht…
“Tausende weltweit durch ChatGPT u.a. arbeitslos gewordene”
“thousands of formerly unemployed translators”
Schade auch – sonst war´s ganz gut.
Jetzt wurde mir das “young global leader” verständlich erklärt.
«Das wäre dann ein selbstzerstörerischer rekursiver, narzisstischer oder identitärer Prozess, aus dem das Andere zunehmend ausgesperrt wird, indem er sich einer Autonomie nähert. So könnte KI, die man derzeit gewissermaßen hemmungslos fremdgenerierte Daten füttert, auch demonstrieren, was das Schicksal von Gesellschaften wäre, die sich der rechtsnationalistischen Ideologie verschreiben, die Fremden auszusperren.»
Der Vergleich von menschlichen Gesellschaften mit KI-Programmen setzt voraus, dass man Gesellschaft als Maschine verstehen kann. Mumfords «Mythos der Maschine» lässt grüssen. Schon Weizenbaum hat die Fehlannahme kritisiert, dass Computerprogramme irgendeine Art von Verstand haben. KI-Programme können keinen Verstand verlieren, den sie von vornherein nicht haben.
Es gilt für Automaten immer GIGO: Garbage In, Grabage Out. Der Artikel lässt sich demzufolge so zusammenfassen: Die Ausgabe einer KI ist selbst dann ein Teilmüll, wenn die Eingabe müllfrei ist. Der Müllanteil der Ausgabe verstärkt sich, wenn man die Ausgabe als Eingabe verwendet.
Am Ende bleiben diese Programme – glorified Elizas.
Kurze Gegenrede: Wenn KI mit KI-generiertem Content gefüttert wird, macht das die KI schlauer.
Beim Trainieren von neuronalen Netzen bekommt die KI Daten zu fressen. Bei Bildern zum Beispiel eine Beschreibung, was auf diesen Bildern zu sehen ist. Man kann KI auch mit schlechten Bildern füttern und der KI erklären “das hier ist ein schlechtes Bild, die Frau hat drei Arme” und später bei der Generierung von Content verlangen “filter schlechte Bilder aus”. Auf Grund der Trainingsdaten assoziert die KI schlechte Bilder mit drei Armen und wird zukünftig schlechte Bilder ausfiltern.
Auch die andere Richtung ist möglich, man kann der KI gute Bilder zum lernen geben und dadurch die Basis guter Beispiele vergrößern.
Die Hauptarbeit bei der Erstellung einer KI ist nicht das Trainieren einer KI, sondern die Aufbereitung der Trainingsdaten. Erst wenn wir an einen Punkt kommen, beim dem Trainingsdaten von einer KI aufbereitet wird, wird es wirklich gefährlich.
Das ist doch genau der entscheidende Punkt: Man muss die Eingabe manuell / mittels Menschen vorselektieren. Damit bekommst du ganz schnell ein Ressourcenproblem, ganz besonders wenn du einen Fragen-Bot haben möchtest, der dir im Idealfall halbwegs aktuelle Informationen aus dem Internet anbieten kann.
Ein Problem auch bei einer guten Datenbasis (guten Auswahl an Trainingsdaten) ist, dass durch ein fortwährendes trainieren mit den gleichen Trainingsdaten ein sogenanntes “Overfitting” stattfinden kann, d.h. das neuronale Netzwerk anschließend vor allem bei den (verwendeten) Trainingsdaten sehr gute Ergebnisse liefert, aber dann bei anderen Eingaben, welche nicht Teil der Trainingsdaten waren, nun die Ergebnisse (ab einen gewissen Zeitpunkt bzw. Durchlauf der Trainingsdaten) schlechter werden (zwar nicht bei allen anderen Eingaben, aber durchaus bei vielen). Wenn das neuronale Netzwerk nur auf den Trainingsdaten gute Ergebnisse liefern sollen würde, dann wäre dieses u.U. kein Problem, nur soll das neuronale Netzwerk möglichst bei allen möglichen Eingaben gute Ergebnisse liefern.
Auch bei einer falschen Gewichtung der Trainingsdaten kann bei fortwährender Trainingsdauer mit den Trainingsdaten nun so etwas wie “Overfitting” passieren, sofern das Neuronale Netzwerk eben nicht nur – abstrakt betrachtet – Klassifizieren soll ob A oder Nicht-A gilt, sondern eben mehrere Dinge gleichzeitig klassifizieren soll¹. Durch eine falsche Gewichtung kann es dann durchaus passieren, dass dann gewisse Dinge falsch klassifiziert werden (da eben die zugehörigen Trainingsdaten zu dieser Klassifikation nun eher schlecht in der Trainingsmenge repräsentiert werden und andere Trainingsdaten eher über repräsentiert in der Trainingsmenge vorhanden sind).
Wenn nun Ausgaben (Daten) von einer KI (neuronalen Netzwerk) A erzeugt werden (auch bei Nutzung von Pseudozufallszahlen zur Variation der Ausgaben bei ansonsten gleicher Eingabe) und dann diese Ausgaben für das Training der KI A verwendet werden, so kann durchaus sehr schnell auch hier “Overfitting” stattfinden (oder eine falsche Gewichtung der Trainingsdaten in der Trainingsmenge stattfinden).
Bei AlphaGo (oder auch dem Pendant für Schach) oder auch bei anderen 2-Spielerspielen hat man diese Probleme – im Prinzip – eher nicht, da hier u.a. nach Ausgang einer Partie (oder eines Spiels) immer im Prinzip nur die Klassifikation des Spielausgangs benötigt wird (also gewonnen, verloren oder unentschieden – vielleicht zwar auch Mal mit “Punktwertung”, aber dann ist gewinnen wichtiger als nun haushoch zu gewinnen). Man hat also eine Klassifikation nach einem einzigen Zielparameter.
ps. Zum Beispiel mit den “drei Armen”: Es kann durchaus sein, dass die Bilder mit den “drei Armen” (welche als “schlecht” klassifiziert wurden) andere Gemeinsamkeiten haben und deswegen eben nicht Bilder aussortiert werden, wenn ein Mensch nun mit drei Armen auf den Bildern abgebildet wird, sondern weil es andere Gemeinsamkeiten gibt (welche auch die Trainingsbilder mit den drei Armen alle hatten), und deswegen Bilder mit drei Armen durchaus sehr einfach durch den Filter gehen, während andere Bilder, auf denen niemand drei Arme hatte, dann aussortiert werden mit der Behauptung der KI, dass eine Person auf dem Bild drei Arme hätte.
¹) Optimierungsprobleme mit mehrere (Ziel-)Kriterien bzw. Zielparametern sind “schwieriger”, da eben durchaus bei einer Verbesserung des Wertes eines Zielparameters der Wert eines andere Zielparameters verschlechtert werden kann (und auch nicht unbedingt gleichzeitig für verschiedene Zielparameter nun der beste Wert bei der Optimierung bzgl. mehrerer Parameter gleichzeitig angenommen werden kann).
Gegenwärtige KI sind nur Mustererkennungsprogramme mit statistischen Auswertealgorithmen, die generativen KI wie ChatGPT sind Nachahmungsprogramme, die auf den erkannten Mustern der Auswertealgorithmen basieren und diese so gut wie möglich nachahmen sollen. Da sich die Nachahmungsstatistik inzwischen auch auf immer größere Textabschnitte erstreckt, nicht mehr nur auf einzelne Sätze, sieht das Ganze immer mehr wie Intelligenz aus. Das ist es aber nicht, es ist kein Sinnverständnis dahinter, keine auch nur annähernde Intelligenz, es ist nur Nachplappern von Mustern (Text-, Ton-, Bild-Muster). Daß bei identischem Input nicht – wie bei fixen Algorithmen zu erwarten – haargenau der gleiche Output entsteht, wird durch “Würzen” mit Zufallszahlen erreicht.
Bis zur “Intelligenz” ist noch ein langer Weg. Wahrscheinlich wird man zuerst mal am Menschen herausfinden müssen, was Intelligenz überhaupt ist und woraus sie besteht. Da ist auch noch ein Stück Arbeit.
“wird man zuerst mal am Menschen herausfinden müssen, was Intelligenz überhaupt ist”
Da habe ich inzwischen meine Zweifel ob man da beim Menschen etwas darüber herausfinden kann.
;-(
Es ist nicht nur die KI, die verblödet, wenn sie sich mit sich selbst beschäftigt.
Die Nutzer werden schon vorher verblöden, weil sie sich nur noch auf die KI
verlassen. Zählen wir einmal die angebotenen Leistungen des Internets zur
KI, sind eine Vielzahl an App´s regelrecht zur Verblödung geschaffen.
Das automatische Bezahlen mit Karte z.B. vermindert die Denkleistung
schon gewaltig. Gibt eine App auch noch potentielle gesunde Produkte vor,
gewinnt nur der Anbieter. Der Käufer kauft teuren Müll und das Verblöden
wird gefördert, weil das Denken abgenommen wird. Eine KI kann uns das
Leben nicht abnehmen. In Steuerungen richtig eingesetzt, kann sie unser
Leben erleichtern. Aber in der Steuerung eines Cruise Missle auch das Leben
vieler, abruppt beenden.
Die KI hat keinen Verstand. Der Begriff ist eine Chimäre, gleich wie viele Algorithmen verwendet werden. Und hier besteht auch das eigentliche Problem, man merkt jeder ChatGPT schnell an, wer diese mit Daten füttert und auch gegen wen. Die Richtung die jene Entwicklung nimmt ist jetzt schon klar, die Idiokratie kann kommen.
Nichts was nie da war kann verloren gehen.
“KI” hat keinen Verstand und kann daher keinen Verstand verlieren.
Diese “KIs” sind nichts anderes als ausgeklügelte Bibliotheks-Verwaltungsprogramme.
Abwägen, gewichten, Schwerpunkte setzen, wichtiges von unwichtigem scheiden, Aufmerksamkeit fokussieren, bewerten, – all das ist nur dem menschlichen Geist möglich und kann technisch höchstens notdürftig imitiert werden.
Diese KI-Erzählungen und Hypes und Boheis sind auch nur ein Baustein um uns zu verblöden und abzulenken und die Aufmerksamkeit in die falsche Richtung zu lenken. Wie auch dieser Quantencomputer-Schwachsinn.
Alles Tinnef. Alles Erzählungen wie angeblich der technisches Fortschritt alles besser und effizienter machen würde. Bullshit. Alles wird hässlicher, unmenschlicher, kränker, bescheuerter umständlicher, entfremdeter, unnatürlicher, undurchschaubarer – und wir damit manipulierbarer und abhängiger.
Abwägen, gewichten…bewerten. Genau. Deshalb mal langsam. Ohne den Tinnef könnte hier keiner seine Meinung schreiben. Wir müssten auf die Möglichkeit der alternativen Medien weitgehend verzichten und glauben, was der Mainstream sagt. Also z.B.! Ich finde chat Gpt hilfreich. Und man sollte Intelligenz nicht mit Bewußtsein verwechseln.
“Ohne den Tinnef könnte hier keiner seine Meinung schreiben. ”
Hahaha. Der war gut ….
Wir könnten also “hier” keine Meinung schreiben – und was genau wäre dann verloren?
Die Hoffnungen auf das (militärgeborene) angeblich demokratische, angeblich anarchische Internet ist wirklich so was von tot – wo leben Sie denn?
Nirgendwo war Meinung je weniger wert und bedeutungsloser als hier im Internet, dem Tummelplatz von PR-Agenten, Trollen, Bots und Vollverblödeten.
Hier bekommt man “Meinung” im Dutzend-mal-Hunderttausend billiger. Nirgendwo ist Meinung weniger wert als hier, wo keine erkennbare Person hinter einer angeblichen, behaupteten, völlig konsequenzenlosen “Meinung” steht. (Im Wirtshaus kann man für seine Meinung materielle Schäden bis hin zu gebrochenen Nasen einheimsen – hier: nichts, folgenlos, Meinung für billig bis völlig umsonst, wenn jemand heute dies und morgen das genaue Gegenteil schreibt – na und? Im schlimmsten Fall schafft man eine neue Figur, einen neuen “Account”, eine neue Scheinidentität.)
ChatfckGT kann “Meinungen” im Sekundentakt hundertttausendfach generieren. Was soll da noch “Meinung” wert sein?
“Meinung” ohne einen dazu stehenden, dafür eintretenden, persönlichen, erkennbaren, ECHTEN Menschen ist nichts weiter als eine fast beliebige Buchstabenkombination.
Das Virtuell-Digitale, der pure Anschein von etwas, ohne jeden materiellen oder personellen Kern, das aufgeblasene Nichts, das potemkinsche Dorf aus nicht einmal Pappmaschee sondern nur noch flüchtigen, jederzeit abänderbaren, überschreibbaren, kostenlos, unmerklich und auf Knopfdruck annihilierbaren Nullen und Einsen, leitet die völlige Vollverblödung der Menschheit ein.
Sie können toll schimpfen.Und haben sich einen verbalen Kampfgürtel zugelegt. Aber warum, wenn all diese Foren unnütz und blöde sind – schreiben sie noch darin? Naja – wie bei fast allem ist es zwecklos. Die Natur hat den Menschen geschaffen wie den Wurm. Hauptsache fressen und satt sein. Und ficken. Ich sehe das Problem im Erkenntnispotential. Und da siehts leider gar nicht gut aus. Auch bei Ihnen.
Das einzig Blöde an dem Artikel ist dieser Satz:
“So könnte KI, die man derzeit gewissermaßen hemmungslos fremdgenerierte Daten füttert, auch demonstrieren, was das Schicksal von Gesellschaften wäre, die sich der rechtsnationalistischen Ideologie verschreiben, die Fremden auszusperren.”
Die Minimenge von Menschen, auf die dieses Angstbild tatsächlich passt, ist in Deutschland so gering, dass man einfach nicht glauben kann, wie oft dieser “Antifa-Verbeugungs-Reflex” zu erkennen ist. Stammt aus dem Werkzeugkasten “Alles rechts von der CDU sind Nazis” und bleibt Unsinn, so oft er auch wiederholt wird.