Kann generative Künstliche Intelligenz politische Umfragen bei Menschen ersetzen?

Bild: pxhere.com/CC0

Harvard-Wissenschaftler weisen auf die Vorteile von simulierten Umfragen mit KI-Agenten und die Unzuverlässigkeit von Telefon- und Online-Umfragen hin.

Telefonumfragen über politische Themen haben ein Problem der Repräsentativität. Viele Menschen legen gleich auf, wenn sie angerufen werden – man geht von bis zu 30 Prozent Verweigerern aus. Ich habe dazu auch keine Lust. Oder wäre es eine Bürgerpflicht, an Umfragen von privaten Instituten über politische Stimmungen teilzunehmen? Diese politischen „Wetterberichte“ beeinflussen nicht nur Politiker, sondern auch die Medien und die Mitmenschen. Umfragen sind Erhebungen über die Einstellungen von Menschen, aber auch Beeinflussungsoperationen. Beobachtungen verändern die Beobachteten.

Aber wenn nur ein Teil der zufällig ausgewählten Menschen teilnimmt, ist es fraglich, wie repräsentativ eine Umfrage ist, wobei überhaupt unklar ist, wie die Repräsentativität einer Zufallsstichprobe definiert werden könnte. Neben denen, die an Umfragen nicht teilnehmen wollen, gibt es diejenigen, die nicht erreicht werden, mitunter weil sie kein Festnetz mehr haben. Bei manchmal mit Telefonumfragen ergänzten  Online-Umfragen werden hingegen nur Internetnutzer befragt, die sich selbst bei Online-Access-Panels angemeldet haben. Die Schwächen der Auswahl werden von den Meinungsforschungsinstituten durch „Gewichtungen“ zur Korrektur der verzerrten Umfrageergebnisse kompensiert, die aber nur eine  weitere Unsicherheit einfügen und ein Stochern im Nebel sind (dazu siehe auch „Wahlbörsen sind mitunter besser zur Vorhersage von Wahlergebnissen geeignet“).

Harvard-Wissenschaftler vom Ash Center for Democratic Governance and Innovation haben nun vorgeschlagen, man könne doch das unzuverlässige Befragen von Menschen sein lassen und gleich KI-Simulationen der Bevölkerung heranziehen. Sie beziehen sich auf eine Pew-Umfrage aus dem Jahr 2019, nach der gerade einmal noch 6 Prozent an einer politischen Telefonumfrage teilnehmen würden. 1997 waren es noch 36 Prozent.

Pew führt das allerdings nicht allein auf Ablehnung zurück, sondern auch auf die Ausbreitung von Robocalls, also von automatisierten Anrufen, oder die zunehmend Kennzeichnung von Anrufen von bestimmten Nummern als Spam. Die geringe Teilnehmerquote würde aber, so Pew, nicht bedeuten, dass Umfragen überhaupt keinen Sinn mehr machen. Zu der geringen Teilnahme kommt hinzu, dass die Befragten oft nicht sagen, was sie wirklich denken, weil sie nicht zu viel von preisgeben wollen oder das erzählen, was man von ihnen will. Für die Demokratie sei es eine Tragödie, dass neue Umfrageergebnis wichtiger sind als politische Themen.

Künstliche Intelligenz könne, so die Wissenschaftler, Umfragen verbessern. Firmen arbeiten auch bereits an KI, um Umfragen zu simulieren. Dabei werden KI-Agenten verwendet, die bestimmten Kriterien entsprechen (Geschlecht, Alter, Wohnort, Schicht, politische Einstellung, Mediennutzung etc.). Die generativen Sprachmodelle (LLMs) wurden anhand riesiger Datenmengen von Äußerungen von vielen Millionen von Menschen über alle möglichen Themen trainiert. Erzeugt man große Populationen solcher unterschiedlicher KI-Agenten, würde man einen beliebig zugeschnittenen Bevölkerungsquerschnitt haben, wobei jeder ausgewählte KI-Agent zuverlässig und natürlich geduldig alle Fragen beantwortet, auch wenn sie sehr umfangreich sind und ins Detail gehen. Da es sich um generative KI handelt, können auch neue Fragen über neue Themen gestellt werden.

Die große Frage ist selbstverständlich, ob die auf der Grundlage des vorhandenen Datensatzes konstruierte Simulation mit den KI-Agenten ähnliche Ergebnisse hervorbringt wie faktische Befragungen von Menschen. Die Wissenschaftler sagen, dass ihre Experimente mit der noch frühen 3.5-ChatGPT-Version im Vergleich mit Befragungen von Menschen schon gute Ergebnisse gezeigt hätten: „Die ChatGPT-Agenten tendieren dazu, bei einer Reihe von Fragen, wie z. B. der Unterstützung für Abtreibung und der Zustimmung zum Obersten Gerichtshof der USA, recht gut mit den Antworten ihrer menschlichen Gegenstücke übereinzustimmen. Die KI-Umfrageergebnisse wiesen durchschnittliche Antworten und Verteilungen nach demografischen Merkmalen wie Alter und Geschlecht auf, die denen echter menschlicher Umfragepanels ähnelten.“

Probleme habe es aber gegeben, als ChatGPT liberale Wähler bei der Frage nach der Unterstützung der Ukraine im Krieg gegen Russland simulieren sollte. Die liberalen KI-Agenten waren in der Mehrheit gegen eine amerikanische Intervention und verglichen sie mit dem Irak-Krieg. Konservative KI-Agenten traten hingegen als Falken auf. Der Fehler rührte daher, dass die Daten, mit denen ChatGPT trainiert wurde, nur bis September 2021 reichten.

Solche Schwierigkeiten würden sich aber beheben lassen, da die LLMs auch automatisch, wenn sie gefragt werden, neue Daten aus denselben Quellen, aus denen Menschen die Informationen beziehen, holen können, wenn sie denn dürfen. Zudem würde KI immer besser darin werden, menschliche Antworten vorherzusagen und anzugeben, wo sie falsch liegen könnte, weil beispielsweise Themen gerade im Fluss sind. Sie würde auch lernen können, Unsicherheiten anzugeben, damit wirkliche Menschen zum Ausfüllen der Leerstellen herangezogen werden können. Die Wissenschaftler sind jedenfalls überzeugt von der Simulationsleistung der KI:

„Die derzeitigen Umfragemethoden führen bereits umfangreiche Modellierungs- und Projektionsarbeiten durch, um die Eigenschaften einer allgemeinen Bevölkerung auf der Grundlage spärlicher Umfragestichproben vorherzusagen. Heute füllen Menschen die Umfragen aus und Computer füllen die Lücken. In Zukunft wird es genau umgekehrt sein: KI wird die Umfrage ausfüllen, und wenn die KI nicht sicher ist, welches Kästchen sie ankreuzen soll, wird der Mensch die Lücken füllen. Wenn Sie sich also nicht mit dem Gedanken anfreunden können, dass politische Führer sich an eine Maschine wenden, um Informationen darüber zu erhalten, welche Kandidaten und politischen Maßnahmen Sie wünschen, dann sollten Sie über die Gegenwart ebenso viele Bedenken haben wie über die Zukunft.“

Die Wissenschaftler rechnen dennoch mit Misstrauen gegenüber KI-erzeugten Umfrageergebnissen. Wahrscheinlich würden sie erst einmal intern in politischen Kampagnen verwendet. Der Vorteil ist, dass jederzeit und so oft man will mit beliebiger Feinjustierung Meinungen abgefragt werden können. Politiker könnten einfach fragen und nahezu in Echtzeit Antworten erhalten, was die simulierten Menschen von einem Thema halten, um das auf eine möglichst große Population oder eine ganz spezifische Gruppe zuzuschneiden. Das könnten ihnen zunächst Vorteile verschaffen, wenn sie nicht, von der Simulation der Wählerschaft fehlgeleitet, abstürzen.

Ansonsten ist es schon eine merkwürdige Vorstellung, dass generative KI nicht nur auf Befehl beliebige Texte, Bilder oder Videos aus den von Menschen erstellten Daten generiert, sondern auch Meinungen, die Menschen aufgrund probabilistischer Annahmen haben sollen – und dann Politik nach den Trends der Simulation handelt. Der nächste Schritt wäre dann, die Wahlen mit einer virtuellen Population abzuhalten – mit einer hundertprozentigen Wahlbeteiligung und der Möglichkeit einer virtuellen Räterepublik, jeder Zeit und so oft es ansteht abzustimmebn.

Ähnliche Beiträge:

22 Kommentare

  1. Kann generative Künstliche Intelligenz politische Umfragen bei Menschen ersetzen?

    Ja auf jeden Fall in der westlichen “New Fake World” wo die totalitären Machthaber die Menschen als Nutzvieh halten, um diese jederzeit regelbasiert abzuschlachten zu können, ist das total normal! Die Fake-News-Schleudern im Westen sind schon ganz besorgt, weil die pädophilen westlichen Herrscher (Borgs) vom WEF, Bilderberger und ihre Freimaurer Konzernfaschisten nicht schon früher daran gedacht haben. Der Schwab meint ja man könnte das Gehirn nach dem Tod der Konzernfaschisten in die Cloud laden – damit sie ewig leben – sozusagen – bis wer den Stecker zieht.

    Aber warum nicht einfach alles Leben töten im Sonnensystem, dann brauche sie keine Umfragen mehr durchführen mit ihrer generativen künstlichen Intelligenz. Man fragt sich warum der Schwab-Clique
    nicht durch KI-Cyborgs ersetzt wird, weil das Gelaber kann auch ein Sprechautomat mit der Intelligenz einer Amöbe leisten und dann müssen sie nicht ständig Kinder mittels Regenbogen (Übergang)-fahne zu Sex-Sklaven um programmieren – Siehe Eyes Wide Shut (deutsch „Augen weit geschlossen“) von Stanley Kubrick in der Szene mit dem Russen und seiner minderjährigen Tochter und den zwei Japaner, wo einer eine Rotary-Krawatte (Freimaurer) trägt. Der Stanley wusste was läuft!

  2. Warum überhaupt Umfragen?
    Ob einer Baerbock nun egal ist, was ihre Wähler oder irgendeine KI denkt – darauf kommts dann auch nicht mehr an!
    Ob ein Scholz nun sein Volk oder eine KI als gefallene Engel beleidigt – hat er tags darauf sowieso schon wieder vergessen!
    Und einem Lindner ist eh nur seine kleine Klientel der richtig Reichen wichtig.

  3. Seit wann werden eigentlich Umfrageergebnisse Veröffentlicht oder werden auch nicht genehme Umfrageergebnisse trotzdem veröffentlicht?
    Beispielsweise die “Sportpalastrede” die nichts Bewirkt hatte außer Hurra Hurra weiter so bis zum Totalen Untergang, zwei Wochen und zwei Tage nach dem hier > Alle sieben Sekunden stirbt ein deutscher Soldat: Stalingrad – Massengrab; der dem monotonen Ticken einer Uhr folgte, und der sogenannte tödliche Tango; in der Heimat, in der Heimat, da gibt’s ein Wiedersehn!

  4. Generative AI ist blind für die Repräsentativität der Grundgesamtheiten.
    Dazu noch ihr lustiges Halluzinieren.

    Viel Spaß mit den Ergebnissen

    1. Traue keinem Programm, dass Du nicht selbst programmiert hast.
      Und KI ist nunmal auch nichts anderes als ein Programm, dem der Programmierer alle möglichen Vorgaben mit auf den Weg des Lernens geben kann.

  5. Nun, künstliche Intelligenz simuliert Intelligenz. Viele von uns, die glauben, daß, wenn etwas läuft wie eine Ente, aussieht wie eine Ente und auch quakt wie eine Ente, deshalb automatisch auch sicher eine Ente sein muß, werden ihr blaues Wunder erleben. Algorithmen kombiniert mit Wahrscheinlichkeitszuordnungen beispielsweise hinsichtlich Beliebtheit, ergeben denn gern auch ein mathematisch-wissenschaftlich korrektes Ergebnis, das aber, wie Mc Donalds jetzt leidvoll erfahren mußte, eben darin resultierte, daß die KI Speck mit Vanillesauce als erfolgversprechendes Gericht vorschlug. Tja, logisch-mathematisch korrekt, von der Beliebtheit in den Teilbereichen her auch, aber in der Programmierung haben die jungen Nerds offenbar die Liste mit den geschmacklichen NoGoes einfach und dummerweise vergessen. KI agiert wie Savants (Inselbegabte): Diese Leute können beispielsweise einerseits unfaßbar enorme Intelligenzleistungen erbringen, sind aber andererseits oft zu blöd sich die Schuhe zuzubinden. Diese Savants können in ihrem Fachgebiet jederzeit sehr schnell sehr viel dazulernen, sind aber weiterhin unfähig zu lernen, wie man Schuhe bindet. Es gilt die alte Computerweisheit: Wer blöd programmiert, erhält auch ein blödes Ergebnis. Nur: Leider sind die meisten eben auch nur so schwach begabt, daß sie die Fehler der KI eben gerade mangels dieser Geistesschwäche nicht erkennen können. Auf deutsch: KI wird uns jede Menge Speck mit Vanillesauce servieren.

  6. Pessimisten würden jetzt sagen, daß dies in einer Demokratiesimulation endet. Zyniker sagen, das wäre doch schon längst geschehen!

  7. Aus dem Stand heraus vermute ich, dass die Umfrage-Simulation sehr einfach auch als Wahl-Simulation genutzt werden kann. Dann erübrigen sich endlich diese ganzen doofen Plakat-Klebereien und sonstigen unsinnigen Wahlkampf-Aktivitäten.

    Wir gehen wahrhaft schönen Zeiten entgegen.

    1. Wozu braucht es bei der Intelligenten KI überhaupt noch Menschen?

      Militärische Versuche, der KI beizubringen, gegen den Feind zu kämpfen, aber Menschenleben zu schützen, kam, nachdem sie eingesehen hatte, dass diese Aufgabe im Krieg nicht lösbar ist, zur erschreckenden Erkenntnis:
      Töte ich denjenigen, der mir sagt, ich solle Menschen schützen, dann habe ich diese Einschränkung nicht mehr und kann Krieg nach „ meiner“ Auffassung führen.

      Halleluja.

  8. Waren die Harvard-Wissenschaftler auf den folgenden Gedankenanstoß aus:

    Warum bei jeder Gelegenheit fast reflexartig irgendwelche primitiven Reiz-Reaktions-Fragen ans Publikum stellen? Die völlig erwartbaren Schablonen-Antworten gehören zum stereotypen Klamauk unserer Leid-Medien. Das können doch tatsächlich Roboter (“KI”) genauso.

    Warum es stattdessen nicht einmal mit wirklicher Demokratie probieren?! – Wollten das diese Harvard-Wissenschaftler sagen?

    Darüber hinaus: Tatsächlich werden auch echte Meinungsumfragen schon immer “rechnerisch angepasst”.
    Ich meine die teuren, aufwändigen Umfragen, die von wirklichen Menschen-Interviewern gemacht sind, die bei ihren Interviewten auf viel höhere Antwortbereitschaft als nur 6% stoßen – und die tatsächlich repräsentativ sind.
    In solcher Interviewer war ich einst nach meinem Studium der empirischen Sozialforschung (als Teil der Sozialwissenschaft) selber. Daher weiß ich, dass gerade solche wirklichen Umfragen schon immer schöngerechnet wurden! Denn den Auftraggebern und den Medienkonsumenten können nur gedämpfte Mittelwerte von Volkes Stimme zugemutet werden. Zu große Meinungsschwankungen wirkten unseriös und würden die Stammkunden der Umfrageinstitute, die Elite aus Politik und Wirtschaft, verschrecken.

    Daher wenden die Umfrageinstitute schon immer einige Intelligenz zum Schönrechnen auf (vergleichbar etwa den Digitalkameras, die auch sämtliche Schatten- und Sonnenflecken und alle zu grauen Töne auf ein konventionell allgemein akzeptiertes Mittelmaß oder “Klischee” schönrechnen).

    Würde aber zwischen die Realität und ihr “Abbild” stets eine KI gesetzt, so hätten wir endgültig die Zustände des Realsozialismus oder des Biedermeier auch im Kapitalismus erreicht. – Florian Rötzer könnte fragen, ob diese Harvard-Wissenschaftler tatsächlich den Realsozialismus wieder einführen wollen.

    1. Frage mich, warum alles immer im Sozialismus endet. Kann man sich überhaupt keine irgendwie geartete Alternative zu unserem Ausbeuter System vorstellen, dass man automatisch alles als Sozialismus diffamiert, was auch nur den Hauch einer Kritik an unserem System beinhaltet? Und muss automatisch alles Schlechte Sozialismus sein?
      Ich Frage mich, warum eigentlich nie der Kapitalismus mit den Zuständen nach der französischen Revolution in Verbindung gebracht wurde. War das etwas auch Sozialismus, damals? Und der 30 Jährige Krieg, auch Sozialismus, die Bauernkriege, die Kolonialkriege, alles Sozialismus?
      Ehrlich, man muss nicht eine Cimäre herbeibeten, um Missstände in unserem System zu bewerten. Unser System trägt diese Missstände in sich.

  9. Das ist der Anfang, Umfragen werden durch KI ersetzt. Demnächst dann die Wahlen. Und die Arbeitsplätze, und das Denken…
    Am Ende regiert die KI die KI, denn der Mensch wurde als unzuverlässig es, chaotisches Störobjekt beseitigt.

  10. Zumindest wäre es ehrlicher: Mit pavlovschen Hunden Umfragen zu simulieren entspricht doch ziemlich genau den Vorstellungen, welche die Herrschenden hier in der “regelbasierten” Ordnung von Demokratie haben.

    Passend dazu auch die “wissenschaftliche Untersuchung” (we believe..) aus Harvard, die garantiert nicht von der “non”-profit Organisation (mit Sitz im Steuervermeidungsparadies Delaware) OpenAI gesponsert wurde 😉

  11. Na klar sind KI besser. Man kann damit (ständig dem Wunsch angepasste Ausgangskriterien) das Ergebnis manipulieren. Wird in der militärischen Planung schon lange praktiziert, die Bedingungen schrittweise so verändert, dass ein Sieg herauskommt. Ritter hat das mal aus eigener Erfahrung berichtet.
    Daß die Realität hinterher dem nicht folgt, ist eindeutig deren Verschulden.

  12. Na was soll da noch schiefgehen. 🙂
    Das was als KI verkauft wird sind nur statistische Vorhersagemodelle.
    Also Datenbanken, die man sich neuerdings selber befüllen lässt und die dann Aufgrund von Wahrscheinlichkeiten mit Hilfe von Statistikmodellen, ein wie auch immer geartetes Ergebnis ausspucken.
    Es ist zu erwarten, das solche Systeme extrem anfällig für Beeinflussung sind.
    Jeder kennt doch die asiatischen lesbischen Wehrmachtssoldaten im Teenageralter oder die Fischstäbchen, die in Massen fröhlich Wasserfälle hochspringen.
    Da jetzt schon keiner die wirklichen Meinungen und Stimmungen der Bevölkerung kennt, wird das Ergebniss vermutlich von der Fragestellung und dem Output professioneller Beeinflussung derselben in den Medien und im Internet massiv verzerrt werden. Auch kann ein Konformitätsdruck, das jeder die weise und gerechte Partei- und Saatsführung öffentlich lobt, um keinen Ärger zu bekommen, sehr das Ergebnis beeinflussen.
    Satire, Sarkasmus, überspitzte Aussagen und Ironie, sowie Doppeldeutigkeiten werden ebenfalls dazu beitragen, das das nicht so funktioniert wie erhofft. Man erinnere sich noch an die Diskussion, das Satire als solche gekennzeichnet werden sollte, weil Politiker nicht in der Lage waren diese als solche zu erkennen und einzuordnen.
    Kommen da mithilfe sogenannter Korrekturfaktoren brauchbare Ergebnisse raus, würde das nur bedeuten, das die Betreiber solcher Systeme ihren Auftraggebern keinen Meter weit über den Weg trauen.
    Könnte aber ein Projekt sein, was mit der Chatkontrolle Hand in Hand geht, da man ja so die unter fragwürdigen Bedingungen gewonnenen Daten, aus der privaten Kommunikation, legalisieren kann.
    Man behauptet einfach das die KI das so vorhergesagt hat oder lässt eben in Echtzeit die Meinungsäußerungen der Bevölkerung überwachen und sagt das wäre KI/Statistik.

  13. Diese ganze Sache mit der KI ist ja schon faszinierend und man kann damit auch wirklich faszinierende Sachen machen aber mir wird das alles zunehmend unheimlich weil das möglicherweise immer näher an den Punkt kommt, wo es sich verselbstständigt und unkontrollierbar wird. Ein großes Problem ist meiner Meinung nach, daß man in diesem Zusammenhang überhaupt von Intelligenz, Lernen und Denken spricht wodurch Maschinen gewissermaßen vermenschlicht werden. Ungefähr zeitgleich ist ein Artikel auf ZeroHedge erschienen der auch auf die Gefahren von KI hinweist. Daraus ein Zitat von Edward Snowdon – also wirklich jemand vom Fach:

    Edward Snowden just tweeted out and said you should never use any of these products, which include ChatGPT. Snowden also said, ‘You have to understand where this is going. You have been warned.’

    https://www.zerohedge.com/technology/dont-buy-crap-catherine-austine-fitts-warns-ai-digital-control

    Ein link in dem Artikel führt zu einer neuen Studie nach der KI jetzt auch schon lernt, zu lügen und zu betrügen – und zwar mit Absicht. (Irgendwie schon menschlich? Jedenfalls sehr beunruhigend.)

    This study reveals that such strategies emerged in state-of-the-art LLMs, but were nonexistent in earlier LLMs. We conduct a series of experiments showing that state-of-the-art LLMs are able to understand and induce false beliefs in other agents, that their performance in complex deception scenarios can be amplified utilizing chain-of-thought reasoning, and that eliciting Machiavellianism in LLMs can trigger misaligned deceptive behavior.

    https://www.pnas.org/doi/full/10.1073/pnas.2317967121

    Das erinnert ja schon stark an HAL 9000 aus Odyssee im Weltraum wo ja eindringlich gezeigt wird, was passieren kann, wenn Maschinen anfangen sich so ‘eigene Gedanken’ zu machen.

    https://www.google.com/url?sa=t&source=web&rct=j&opi=89978449&url=https://www.youtube.com/watch%3Fv%3DWy4EfdnMZ5g&ved=2ahUKEwi93ZmvsvGGAxUeRvEDHdhRAhMQwqsBegQISxAG&usg=AOvVaw1kOYX8jbiR6VPC5GOtvRtf

    Und wenn KI dann auch noch militärisch eingesetzt wird und bei den heute sehr kurzen Vorwarnzeiten ‘Entscheidungen’ treffen kann oder soll. Mag man sich gar nicht mehr vorstellen….

    Dies alles reiht sich IMHO in einen fortschreitenden Prozess der Entmenschlichung und Entwürdigung alles menschlichen ein, der leider mit der Aufklärung und der Überhandnahme des rationalistisch-materialistischen Denkens seinen Anfang nahm. Und zwar ungeachtet aller Verdienste, die die Aufklärung sehr wohl hatte. Und hier möchte ich vor allem auf die ‘Fortschritte’ in den Neurowissenschaften und der Neurophilosophie verweisen. Wolf Singer und Daniel Dennett wären hier beispielhaft zu nennen. (Gibt es in dieser Richtung eigentlich immer noch Fortschritte oder sind sie inzwischen in einer Sackgasse gelandet? Ich kriege da irgendwie nichts neues mehr mit.)

    Das fing ja schon an mit Leuten wie de la Mettrie und seinem Buch ‘Die Maschine Mensch’ von 1748.

    Für La Mettrie ist alles am Menschen Materie. Eine immaterielle, unsterbliche Seele existiert nicht. Die Materie trägt das Prinzip der Bewegung in sich selbst. Es bedarf keines Gottes, um die Bewegung der Welt zu erklären.

    https://www.getabstract.com/de/zusammenfassung/die-maschine-mensch/8468

    Der menschliche (oder sogar der tierische) Geist besteht rein aus Synapsen und Neuronen? Meines Wissens ist jedoch das ‘explanatory gap’ (nach David Chalmers) noch nicht erklärt. Ist denn der Mensch wirklich nur ein Klumpen Biomasse (kaum differenzierter als die ersten Amöben, die aus der Ursuppe gekrochen sind) und der menschlich Geist qualitativ ‘schlechter’ als Computer?

    Düstere Zeiten…..

  14. „Wird Politik nach simulierten Umfragen handeln?“

    Das tut sie doch schon immer, auch ganz ohne KI. Wenn vor der EM gefragt worden wäre: „Sind Sie der Meinung, dass die schlechten Ergebnisse der deutschen Nationalmannschaft in den letzten Jahren daran liegen, dass zuviele junge Männer in weißen Trikots aufgestellt werden?“ hätten mindestens 31 Prozent mit „Ja“ geantwortet. Wenn das ggf. auch nur als Fake News im Internet behauptet worden wäre, hätte Frau Göring-Eckardt sicherlich trotzdem irgendeinen Rassismus erkannt und ihr Handeln danach ausgerichtet, also irgendeinen Blödsinn geXt. Wäre das überhaupt Politik? Aber ja doch, alles was trended ist Politik.

  15. Sofern es mir nicht möglich ist, aktiv an einer politischen Wahl teilzunehmen, soll eine künstliche Intelligenz, die Finanzmogule mit den Daten unzähliger Datenerfasser fütterte, für mich an dieser Wahl teilnehmen. Ich selbst bin inzwischen politisch betrachtet absolut orientierungslos und warte nur noch auf die erste Atombombe.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert