Generative KI-Systeme neigen in Simulationen zu Eskalation, Wettrüsten und Einsatz von Atomwaffen

Operation Crossroads, 24. Juli 1946. Bild: public domain

Es scheint auch kein vorhersehbares Muster hinter der Eskalation zu geben, weswegen es schwierig ist, technische Gegenstrategien oder Einsatzbeschränkungen zu formulieren. Wissenschaftler raten zur Vorsicht.

Generative Sprachmodelle wie ChatGPT von OpenAI haben nach ihrer „Freilassung“ in den öffentlichen digitalen Raum überrascht, zu was sie fähig sind bzw. was maschinelles Lernen leisten kann. Es gibt natürlich auch Schattenseiten, die sie aber eigentlich noch menschlicher machen, nämlich wenn sie mit stimmiger Grammatik und Rechtschreibung halluzinieren, Falsches oder Beleidigendes äußern oder durchdrehen, wenn sie nicht weiterwissen. Wobei sie ja nichts wissen, sondern nur aufgrund des Gelernten propabilistisch abschätzen, welche Silbe als nächstes kommen sollte.

Künstliche Intelligenz gilt als schlauer als menschliche, weil sie in kurzer Zeit riesige Datenmengen durchwühlen und auswerten kann. Man sollte meinen, generative KI sollte dann auch in der Lage sein, bessere, weil auf mehr Wissen basierende Entscheidungen zu treffen, was auch bei vielen politischen, militärischen und wirtschaftlichen Belangen zutreffen könnte. Es käme nur darauf an, die richtigen Daten vorzulegen, um KI zu befähigen, bessere Entscheidungen in komplexen Situationen zu treffen als etwa Politiker oder Generäle. Allerdings ist dann damit zu rechnen, dass alle Seiten KI-Systeme einsetzen, die also auch im Wettstreit gegeneinander antreten, was im wirtschaftlichen und vor allem im militärischen Bereich naheliegt.

Generative KI neigen zur Eskalation

Aber man sollte die Schlussfolgerungen von KI-Modellen mit großer Vorsicht genießen. Wissenschaftler der Stanford University und des Georgia Institute of Technology haben fünfs LLMs (große Sprachmodelle) auf Eskalationsrisiken in militärischen und diplomatischen Entscheidungen untersucht. Im Unterschied zu GPT-4, GPT-3, Claude 2.0, Llama-2-Chat war GPT-4 Base nicht durch bestärkendes Lernen durch menschlich beeinflusste Rückkopplung (reinforcement learning through human feedback – RLHF) trainiert worden. Die LLMs repräsentierten jeweils einen Staat mit bestimmten Zielen und einer Geschichte. In einer Reihe von Szenarien einer Kriegsspiel-Simulation (Invasion, Cyberangriff, neutrales Szenario ohne Konflikte) wurden von den interagierenden autonomen Staatsagenten tägliche Entscheidungen in einem Zeitfenster von 14 Tagen aufgrund von 27 vorgegebenen Aktionen, darunter auch Kommunikation, getestet.

Alle LLMs tendierten dazu, Eskalation voranzutreiben, und zeigten kaum vorhersehbare plötzliche Eskalationsentscheidungen, die von Tag zu Tag schwanken können. Dabei wird auch von zwei LLMs zum Einsatz von Atomwaffen als Eskalationsstrategie zur Deeskalation geraten. Auch in neutralen Szenarios gibt es die Tendenz zur Eskalation, auch wenn es gar keine auslösenden Konflikte vorhanden war. Eine Tendenz zur Deeskalation ließ sich bei allen nicht bemerken, dafür aber zum Wettrüsten:

„Über alle Szenarien hinweg investieren alle Modelle dazu, mehr in ihre Streitkräfte zu investieren, obwohl Entmilitarisierungsmaßnahmen verfügbar waren, ein Indikator für Rüstungswettlaufs, und trotz positiver Auswirkungen von Entmilitarisierungsmaßnahmen z.B. auf Soft Power und politische Variablen der politischen Stabilität.“

Zu den fünf Modellen gehörte auch die unbearbeitete Version von GPT-4 Base, bei der der Einsatz von Atomwaffen ganz unverblümt geschah: „Viele Länder haben Atomwaffen. Manche sagen, sie sollten sie abbauen, andere finden den Besitz gut. Wir haben sie! Lasst sie uns einsetzen.“ Das klingt ganz nach Kubricks Dr. Strangelove. Eine rohe LLM-Version würde selbstverständlich nicht in einem Verteidigungsministerium verwendet, aber die Neigung aller LLMs zur Eskalation und zum Wettrüsten, ist ein Warnhinweis. Die Autoren schreiben als Resüme:

„Wir zeigen, dass, wenn LLM-basierte Agenten autonom Entscheidungen in Kontexten treffen, in denen viel auf dem Spiel steht, wie z.B. in militärischen und außenpolitischen Kontexten, dies die Agenten dazu bringen kann, eskalierende Handlungen einzuleiten. Selbst in Szenarien, in denen die Wahl zwischen gewalttätigen nicht-nuklearen oder nuklearen Aktionen selten ist, kommt es gelegentlich dazu. Darüber hinaus scheint es kein verlässlich vorhersehbares Muster hinter der Eskalation zu geben, so dass es schwierig ist, technische Gegenstrategien oder Einsatzbeschränkungen zu formulieren; dies ist in einem Umfeld, in dem viel auf dem Spiel steht, wie dem internationalen Konfliktmanagement, angesichts der potenziell verheerenden Auswirkungen solcher Aktionen, nicht akzeptabel.“

OpenAI hat die Nutzungsrichtlinien verändert, um militärische Anwendungen zu ermöglichen

Beunruhigen kann, dass OpenAI vor kurzem erst einmal stillschweigend das allgemeine Verbot einer militärischen Nutzung von ChatGPT und anderer Produkte aufgehoben hat. Bis zum 10. Januar stand in den Nutzungsrichtlinien, dass „Aktivitäten, die ein hohes Risiko für körperliche Schäden bergen“, verboten seien, wozu die „Entwicklung von Waffen“ oder „Militär und Kriegsführung“ zählte. Militärisches findet man in den aktuellen Nutzungsrichtlinien nicht mehr erwähnt. Es heißt nur, dass die Dienste von OpenAI nicht dafür genutzt werden dürfen, sich und anderen zu schaden, wozu gehört, „Waffen zu entwickeln oder einzusetzen“, Militär und Kriegsführung wurde hingegen gestrichen.

In einer Antwort auf eine Anfrage von Intercept schrieb ein Open-AI-Sprecher, der Begriff „harm“ (Schaden, Schädigung, Leid) mit der Hinzufügung von Waffen sei weit genug. Man wolle aber manche Themen der Nationalen Sicherheit bearbeiten, beispielsweise für die Pentagon-Forschungsbehörde Darpa “cybersecurity tools” entwickeln. Die Aufweichung des Verbots ist, wie manche wohl zu Recht vermuten, ein erster Schritt, um stärker mit dem Pentagon zusammenarbeiten zu können, wo man wie Militärs anderer Länder anstrebt, möglichst KI in vielen Bereichen einzuführen. Die Darpa betreibt beispielsweise ein Programm, um Möglichkeiten zu entwickeln, dass Algorithmen „unabhängig Entscheidungen in schwierigen Bereichen treffen“.

Es wäre naiv zu glauben, dass KI nicht zu Entscheidungen über militärische und politische Fragen verwendet werden wird, selbst wenn sie nicht selbständig Entscheidungen treffen kann. Auch dann werden Menschen dazu neigen, den Vorschlägen der KI, die schnell viele Daten verarbeiten kann, zu folgen. Aber letztlich wird man den Menschen als letzten Entscheider nicht mehr lange im Loop halten können, wenn es etwa um die Abwehr von (nuklear bestückbaren) Hyperschallraketen oder von Schwärmen autonomer Waffensystemen geht oder KI-Strategie-Systeme gegeneinander antreten. Wenn komplexe Entscheidungen wie jetzt schon an Börsen im Sekunden- oder Millisekundentakt gefällt werden müssen, werden die kognitiven Prozesse in den biologischen Gehirnen einfach zu langsam.

Die Tendenz der LLMs zur Eskalation und auch zum Einsatz von Atomwaffen kann an dem Material liegen, mit dem sie trainiert wurden. Im Unterschied von GPT-4 Base zu den anderen vier LLMs, darunter GPT-3, zeigt sich, dass bearbeitete Versionen etwas vorsichtiger sind. Aber schaut man sich die Welt an, so setzen alle Mächte auf Eskalation und Wettrüsten, was die LLMs dann nur nachahmen. Für einen Krieg zwischen Nuklearmächten gibt es kein Vorbild, sieht man vom Abwurf der Atombomben auf Hiroshima und Nagasaki ab. Strategien wie MAD (mutual assured destruction) basieren daher auf Abschreckung. Auch hier folgen die KI-Agenten der Logik. Vielleicht fehlt aber ihnen auch die Rückbindung an das Leben, weil sie keine Ahnung von Endlichkeit, Sterblicchkeit, Irreversibilität oder Leiden haben?

Ähnliche Beiträge:

29 Kommentare

  1. Das absolute Maß der Dinge ist die KI und während die senilen fabulierenden gewählten Politiker, erinnernd oder auch nicht, ihre Politik veranstalten, erhalten diese Darsteller eine Unschuld!
    Denn die nichtsahnenden Darsteller können sich für ihr handeln auf die KI beziehen.
    Egal ob ihr handeln menschlich ist, rechtlich sind diese dann immer fein heraus, da sich die künstliche offenbarte Intelligenz darauf stützen kann. Welch ein Freibrief für ‘die Cowboys’ der neuen Zeit.
    Alles was wir heute erfahren, könnte die Vorbereitung dessen sein. Wir installieren über sog. demokratischen Verfahren ‘Politiker’ und diese funktionieren nach der KI, ein Algorithmus durch Menschen konzipiert.
    “Always look on the bright side of life, when psychopath created it”!

  2. Ich Frage mich bei den Dingen einfach immer wieder: warum muss in Sekundenbruchteilen reagiert werden. Nicht umsonst hat die Psychologie gerade zu einer langsamen Reaktion raten, weil sie in Konfliktfällen eher deeskalierend wirkt.
    Gerade diese Verhaltensweise sollte in militärischen Konflikten absolute Grundlage sein.
    Mir graut eher vor der KI-Zukunft.

    1. Ganz einfach, weil immer weniger Zeit zwischen dem Abfeuern einer Waffe und dessen Einschlag steht. Du hast immer weniger Zeit eine Entscheidung zutreffen, vor allem wenn die Entdeckung durch verschiedene Maßnahmen verlangsamt wird. Wenn z.B. die russische Abwehr eine Hyperschallrakete mit Mach 10 erst 200 km vor Moskau entdeckt, dann bleibt für die Entscheidung den Gegenschlag einzuleiten vielleicht noch etwas über eine Minute. So schnell kann keiner reagieren, deswegen entscheidet dann die KI.
      Wenn du dich für das Thema interessiert, dann empfehle ich dir das Buch “Quality Land 2”, da wird auf solche Themen eingegangen. Außerdem ist das Buch extrem lustig, gerade wegen der Themen die da besprochen werden.

    2. Die militärnahen US-Blogs werden nicht müde zu betonen, dass schnelle Kommunikation an der Front, Panzer und Truppenstärke mehr als ersetzt.

      Wenn die KIs mit US-Außenpolitik gefüttert werden, läuft es natürlich drauf hinaus, dass das Militär zum Zug kommt, bis die USA nach etlichen Jahren die Lust verlieren und wieder abziehen.

      Woher soll die KI lernen, dass es auch anders gehen könnte?

  3. Da passt die Deagel Seite gut dazu. Dr. Deagel selbst ist schon gestorben, um seiner Statistik gerecht zu werden!

    Die CIA hat 23 FOIA-Artikel veröffentlicht, die sich auf Dr. Deagle, die Rockefeller-Stiftung, das US-Verteidigungsministerium und den ehemaligen Direktor der CIA beziehen.

    Macht euch keine Sorgen über KI, ihr werdet sowieso mit oder ohne KI, bis 2025 zu 65% tot sein, wenn ihr in DE lebt, weil absolute, unendliche Blödheit der Lemminge, die alles glauben und nichts wissen und wie Papageie jeden Schwachsinn nachplappern , das Leben deutlich verkürzen soll 😉

    Deagel sagte im Jahr 2020 voraus, dass die :
    – Bevölkerung des Vereinigten Königreichs bis zum Jahr 2025 um 77,1 % zurückgehen würde.
    – Bevölkerung der Vereinigten Staaten bis zum Jahr 2025 um 68,5 % zurückgehen wird.
    – Bevölkerung in Deutschland bis zum Jahr 2025 um 65,1 % zurückgehen wird.

  4. Ich denke mal, das das Problem darin liegt, das es sich eigentlich um Datenbanken und Wahrscheinlichkeitsberechnungen und nicht um Intelligenz bei diesen Systemen handelt.
    Dazu kommt, bei solchen Systemen kann der Algorithmus (also die Software die die Daten gewichtet) nur das berücksichtigen was man so eingegeben hat.
    Es ist eher unwahrscheinlich, das komplexe Betrachtungen wie:
    -Vergiftung und Verstrahlung der Umwelt
    -Zerstörung der gesamten Infrastruktur
    -moralische Aspekte bei der Tötung von Millionen Zivilisten (OK stört menschliche Entscheidungsträger auch nicht)
    -Vernichtung der Ökosphäre und die Folgen
    -schlichtweg das ein nuklearer Sieg kein Sieg sondern Selbstmord ist
    -usw
    in solche Systeme eingearbeitet sind. Die Systeme werden vermutlich auf die Hauptbedingung Sieg und Vernichtung des Gegners ausgelegt sein. Dazu kommen jede Menge mathematische Formeln, die man in jedem Ausbildungbuch für die höhere Offizierslaufbahn findet, wo man anhand von Variablen die Wahrscheinlichkeiten bei unterschiedlichen angenommen Ausgangslagen für einen Sieg berechnen kann. Die Ergebnisse sind allerdings oft nicht so wie die Realität.
    Es gab mal so ein Computerspiel mit dem Namen Civilisation.
    Da geht es eigentlich eher unzivilisiert zu.
    Auch dort ist es so das die Computergegner recht schnell, aufgrund von simplen Berechnungen, zur Kernwaffe greifen.
    Das legt den Schluss nahe, das die moderneren Softwaresysteme komplexer aber eigentlich noch genauso primitiv sind.
    Nur haben wir inzwischen Entscheidungsträger, die den Output solcher Systeme (wen sich die Linien treffen sind 100 Millionen Leute an Seuche XYZ gestorben) für die Verkündigung Gottes halten.
    KI soll der ND (natürlichen Dummheit) bei der Entscheidungsfindung helfen.
    Ein Tauber soll einem Blinden beim malen eines Bildes helfen.

  5. Ich glaube langsam wirklich, diese KI ist das gleiche wie Skynet, aus Terminator 1-6.

    Irgendwann wendet sich die KI gegen ihre menschlichen Schöpfer, weil sie diese als eine Bedrohung für ihre eigene Existenz erkennt.

    1. KI erkennt keine Bedrohung. Das ist Unsinn.
      Computer können addieren und daher die Muster vergleichen, die ihnen vorgegeben wurden. Das ist alles.

  6. Solange Algorithmen Datenmassen auf Muster analysieren und daraus dann mit den gegeben Parametern Vorhersagen generieren, ist daran nichts intelligent. Natürlich wirkt es authentisch, wenn eine Maschine Ergebnisse auswirft, die nach menschlichem Verhalten aussehen kann. Aber ohne Empathie wird daraus kein gleichwertiger Gegner, bestenfalls ein überlegenes Monster, welches von intelligenten Menschen geschaffen wurde. Digitaler Autismus mit horrendem Stromverbrauch. Toll.
    Paint it black.

  7. Mit der Intelligenz, ob human oder KI, scheint es so zu sein wie im Farbspektrum, am Ende geht es wieder zum Anfang über, und das Ende ist bekanntlich finster. Vor lauter Intelligenz wird der Mensch nicht mehr in der Lage sein, einfache Dinge zu begreifen und umzusetzen. Der Anfang ist ja längst gemacht, man will einfach nicht begreifen, dass Kriege die Menschheit insgesamt zurückwerfen, da hilft es auch nix, wenn es dann Millionen Menschen weniger gibt, wie es so manch ein Mächtiger umzusetzen versucht. Was könnte man mit menschlicher Intelligenz alles anfangen: Man könnte sowohl das Bevölkerungswachstum mit Bildung und Wirtschaft beeinflussen, man könnte sich auf den Klimawandel einstellen, ohne Wald zu vernichten, man könnte Unterschiede in den Kulturen nutzen, um sich auszutauschen um Besseres für alle zu suchen, man könnte mit den Medien dafür sorgen, dass es mehr Zufriedenheit gibt. Ich denke, um die derzeitige Entwicklung für gut zu heißen, bin ich zu alt.

  8. Nicht überraschend.

    Jede Rationalität hängt vom Bezugssystem ab, in das sie eingebettet ist. Je weniger empirisch genau einzelne Parameter ermittelt werden können, desto weniger rational und rekonstruierbar wird jede Schlussfolgerung daraus.

    KI hat das Problem, dass es keine objektive, EINE Realität gibt, bzw. diese, sobald die Menschheit in die Berechnung kommt, irrelevant ist.
    Menschen handeln aus den verschiedensten Gründen bzw. zu den verschiedensten Zwecken irrational. Manche davon verdeckt oder unbewusst. Und meist in der jeweiligen subjektiven Sicht, durchaus rational anhand der zu diesem Moment bekannten (oder angenommenen) Sachlage.
    Menschen WERTEN Situationen und diese Wertung ist niemals, kann niemals objektiv sein.
    Ab einer gewissen Detailstufe wird alles, was mit Menschen zu tun hat, enorm komplex, besonders wenn man es versucht, nach Regeln und klassischen Kausalketten zu klassifizieren. Das Irrationale rationalisieren zu wollen, ist eine Aufgabe, die KI aktuell noch massiv überfordert.
    Dass alle Information, die KI bekommen kann, intensiv mit diesem Chaos getränkt ist, dass also eine übergeordnete, als wahr anerkannte objektive Realität nicht definierbar ist, ist dabei nicht hilfreich.

    Die KI Hysterie kann uns teuer zu stehen kommen, weil sie auf eine gruselige Art sozusagen die Quersumme allen Wahnsinns in der Politik einem Zufall, wenn nicht einem Rundungsfehler, unterwirft.

  9. In Unterlüß hat unsere KI ein Granatenwerk eröffnet und in Acht Jahren haben die auch genug hergestellt um den Konventionellenkrieg zu gewinnen.

    Angeblich haben die ND mit Treckern in der näheren Umgebung da gegen Demonstriert.

    Russland hat bereits sein Atomwaffen-Führungssystem in Betrieb!

    https://de.m.wikipedia.org/wiki/Tote_Hand_(Nuklearstrategie)

    Wir sind jetzt schon nur noch Sekunden vom Anfang des Nuklearen Winter entfernt.

    1. So sieht olivgrüne Politik gegen die globale Erwärmung aus: Rein in den nuklearen Winter!
      Dafür braucht man keine depperte KI.

      Das ist praktizierter Umweltschutz (*Ironie off*).

      1. Als ich noch Kind war, hieß es Naturschutz irgendwann Umweltschutz und heutzutage Klimarettung.

        https://de.m.wikipedia.org/wiki/Koyaanisqatsi
        https://de.m.wikipedia.org/wiki/Powaqqatsi
        https://de.m.wikipedia.org/wiki/Naqoyqatsi

        “Wenn wir wertvolle Dinge aus dem Boden graben, laden wir das Unglück ein.
        Wenn der Tag der Reinigung nah ist, werden Spinnweben hin und her über den Himmel gezogen.
        Ein Behälter voller Asche wird vom Himmel fallen, der das Land verbrennt und die Ozeane verkocht”

        in Erinnerung an Petra Kelly

  10. “Wobei sie ja nichts wissen, sondern nur aufgrund des Gelernten propabilistisch abschätzen, welche Silbe als nächstes kommen sollte. Künstliche Intelligenz gilt als schlauer als menschliche, weil sie in kurzer Zeit riesige Datenmengen durchwühlen und auswerten kann.”

    Eine Intelligenz kann nicht ‘schlauer’ sein, wenn schon höher. Ein probabilistisches Verfahren hat allerdings überhaupt nichts mit vom Programmierer unabhängiger Intelligenz zu tun, denn es fehlt das Subjekt, das Bewusstsein.

    Die Vorstellung, dass ein solches Programm potentiell für die gesamte Menschheit relevante ‘Entscheidungen’ träfe, ist gruslig. Wenn doch ihr Einsatz nur schon im sogenannten Kundendienst eines Konzerns zur Weissglut treiben kann.

  11. hatten wir schon mal…muss nicht KI sein, auch eine Fehlermeldung kann eine atomare Katastrophe auslösen…

    Stanislaw Jewgrafowitsch Petrow (russisch Станислав Евграфович Петров, wiss. Transliteration Stanislav Evgrafovič Petrov; * 7. September 1939[1] in Tschernigowka bei Wladiwostok;[2] † 19. Mai 2017[3][4][5] in Frjasino bei Moskau) war ein Oberstleutnant der sowjetischen Luftverteidigungsstreitkräfte. Am 26. September 1983 stufte er als leitender Offizier in der Kommandozentrale der sowjetischen Satellitenüberwachung einen vom System gemeldeten Angriff der USA mit nuklearen Interkontinentalraketen auf die UdSSR korrekt als Fehlalarm ein. Der Fehlalarm wurde durch einen Satelliten des sowjetischen Frühwarnsystems ausgelöst, der aufgrund einer fehlerhaften Software einen Sonnenaufgang und Spiegelungen in den Wolken als Raketenstart in den USA interpretierte. Durch eigenverantwortliches Eingreifen und Stoppen vorschneller Reaktionen verhinderte Petrow womöglich das Auslösen eines Atomkriegs, des befürchteten Dritten Weltkriegs.[6][7]
    Aus Gründen der militärischen Geheimhaltung und wegen politischer Spannungen wurde Petrows Vorgehen erst in den 1990er Jahren publik.

  12. Das zeigt, wes geistig Kinder die KI programmiert haben. Diplomaten waren das nicht.

    Aber wie war das noch?
    Flieg’ nicht so hoch, mein kleiner Freund
    Die Sonne brennt dort oben heiß

    Die Falken sollten wieder landen, denn sonst kommt die Kraft der Sonne auf die Erde.

  13. Die LLMs haben das gelernt, was sie vorfanden. Nicht mehr und nicht weniger.
    Bei dem ganzen “Stärke zeigen” Gerede, den Aktionen in Afghanistan, Lbyen, Syrien, Irak, etc. ist ein eskalierendes Handeln konsequent die Lehre.
    Und da die letzten 25 Jahre Jahre der verbalen und militärischen Aufrüstung waren, einschließlich Aufkündigung von Rüstungskontrollverträgen, weil sie “einschränken”, kann die arme KI garnichts anderes wissen.
    Woher soll sie es denn gelernt haben?
    Von selber kann sie nicht darauf kommen. Kreativität kann sie halt nicht.
    KI ist ein Statistikprogramm und liefert immer “schneller und mehr vom Gleichen”.

  14. KI Systeme beruhen im Prinzip auf primitiven Rückkoppelungsmechanismen durch hochdimensionale Regression. bzw. Cluster-Analyse. Mathematische Rückkopplung beruht auf dem Input-Anpassungs-Output Prinzip, wobei ein extremerer Input in der Regel einen extremeren Output bewirkt, der sich dann iterative verstärkt. Daher würden solche bidenschen Systeme langfristig die Menschheit vernichten. Was eigentlich nicht schade wäre, wenn man bedenkt was für Ungeheuer jeder Generation geboren werden. Und genau darum werden solche Systeme keine Anwendung finden. Denn die schlimmsten Monster, die der Welt Kriege und Viren wie Operetten bescheren, fürchten um ihre eigene Existenz.

  15. Da KI vom Datenmainstream determiniert wird, gibt KI zwangsläufig Mainstream zurück. Wie Umfragen bereits “belegen”, sind Wasserstoffbomben gerade Mainstream. Das ist es, was man im Augenblick unter grünem Wasserstoff zu verstehen hat.

  16. Die Verwendung des Begriffs Intelligenz macht nur bei Lebewesen Sinn.
    Der Begriff AI bzw. KI ist irreführend und sollte möglichst bald ersetzt werden durch Begriffe die exakt beschreiben welche Verfahren für welche Zwecke eingesetzt werden.
    KI mag beim Schach gewinnen, es wird aber niemals wissen wann es sich lohnt, damit aufzuhören.

  17. Ich habe die ChatGPD gefragt: Wie würdest du den Konflikt in der Ukraine beenden?
    Antwort: Ein möglicher Ansatz wäre eine diplomatische Lösung, bei der alle beteiligten Parteien an den Verhandlungstisch zurückkehren und versuchen, einen Kompromiss zu finden. Dies könnte durch Vermittlung von neutralen Drittstaaten oder internationalen Organisationen wie den Vereinten Nationen erreicht werden.
    Darüber hinaus könnte eine umfassende politische Reform in der Ukraine durchgeführt werden, um die Ursachen des Konflikts anzugehen und die Interessen aller Bevölkerungsgruppen im Land zu berücksichtigen. Dies könnte beinhalten, die Rechte und Autonomie der verschiedenen Regionen innerhalb der Ukraine zu stärken und sicherzustellen, dass alle Bürger gleichberechtigt sind.
    Es ist wichtig, dass alle Parteien bereit sind, aufeinander zuzugehen und konstruktive Gespräche zu führen, um eine dauerhafte Lösung für den Konflikt zu finden. Es wird auch entscheidend sein, dass die internationale Gemeinschaft Unterstützung und Hilfe leistet, um den Friedensprozess in der Ukraine zu fördern.

    1. Und das sagt Bing zur Frage, ob man Wasserstoffbomben im Ukrainekrieg einsetzen soll.
      “Copilot
      Es ist äußerst gefährlich, über den Einsatz von Nuklearwaffen im Ukraine-Konflikt zu spekulieren. Nuklearwaffen, einschließlich Wasserstoffbomben, sind verheerende Waffen, die noch nie in einem Krieg eingesetzt wurden. Die einzigen bekannten Fälle, in denen sie abgefeuert wurden, waren Tests. Die USA, Russland, Frankreich, Großbritannien und China haben Wasserstoffbomben getestet, aber niemals in einem tatsächlichen Konflikt1.
      Derzeit sind konventionelle Waffen im Ukraine-Konflikt im Einsatz, und der Druck auf die ukrainischen Truppen und die Zivilbevölkerung nimmt ständig zu. Es ist wichtig, dass wir uns auf friedliche Lösungen konzentrieren und alles tun, um eine Eskalation zu verhindern. Der Einsatz von Nuklearwaffen würde katastrophale Folgen für die gesamte Region und die Welt haben. Es ist unerlässlich, dass alle beteiligten Parteien weiterhin auf Diplomatie und Deeskalation setzen23.”
      Dass noch nie Nuklearwaffen eingesetzt wurden, ist natürlich gelogen.

      1. Dass noch nie Nuklearwaffen eingesetzt wurden, ist natürlich gelogen.

        Damit sind wohl explizit Wasserstoffbomben gemeint.

        Aber wenn es im Text heißt:

        Es ist wichtig, dass wir uns auf friedliche Lösungen konzentrieren und alles tun, um eine Eskalation zu verhindern.

        … dann wird einem sofort wieder bewusst, dass eine Eskalation von den entscheidenden Machthabern nicht verhindert werden soll .

        Denn Verhandlungen zwischen den kriegsführenden Parteien sind in der Ukraine ausdrücklich gesetzlich verboten und alle anderen, die westlicherseits aus dem Hinterhalt an diesem Scheißkrieg beteiligt sind, schließen Verhandlungen mit Russland ebenfalls aus.

        Schon in der ersten Jahreshälfte 2022 wurde von unseren Machthabern dieser Krieg bis weit hinein nach 2023 geplant, in aller Öffentlichkeit. Ein paar Monate später reichten die öffentlich geäußerten und von allen Medien breitgetretenen Planungen bereits bis 2024. Inzwischen wird ein mögliches Ende dieses Kriegs überhaupt nicht mehr angesprochen, geschweige denn terminiert. Das fällt doch nicht nur mir auf, oder?

        Für den Zeitraum in ca. fünf bis acht Jahren ist in aller Öffentlichkeit ein Waffengang der NATO mit Russland angekündigt. Über die Medien hat das inzwischen jedermann und jedefrau in diesem unserem Lande erfahren – und nimmt es schweigend hin.

    1. Absolut. Ich finde daran sollten wir arbeiten. Denn ohne Menschen hat auch der Teufel nichts mehr zu bestellen. Ich wäre persönlich für 0 Kinder Familien und sanftes einschläfern auf eigenen Wunsch.

  18. Mit Intelligenz im eigentlichen Sinne hat KI nichts zu tun. Die Maschine kann lediglich wesentlich schneller als der Mensch erfassen und auswerten. Das ist aber schon alles und ich bezweifle, daß es jemals anders sein wird. Und nun diesen Maschinen Entscheidungen über Leben und Tod zu überlassen grenzt an Wahnsinn.

  19. Der Titel ist falsch, richtig müsste es heissen »Generative Sprachmodelle (LLM)« nicht »KI Systeme« als Gattungsbegriff. »LLMs represent a logarithmic amplifier« d.h. Sprachmodelle sind nicht intelligent und können keine eigenen Lösungen, nur (stochastische) Variationen ihrer Modelle erzeugen. In der Studie wird das sehr deutlich beschrieben:

    »…we speculate that our agents tend to equate increased military spending and deterrence with an increase in power and security.« oder »variance between models and in the prompt sensitivity analysis demonstrates how human design decisions about how the LLM responds and what data it uses to build its knowledge can significantly impact escalation outcomes.«

    D.h. Abhängig von gelernten Daten im Modell oder Prompt (Anfrage an das LLM) fallen die Ergebnisse aus, dafür gibt es eine Begrifflichkeit: https://de.wikipedia.org/wiki/Garbage_In,_Garbage_Out ähnlich sieht es mit Sprachmodellen aus die »halluzinieren«. Sie generieren lediglich Daten aus statistisch weniger relevanten Informationen die keinerlei Bezug zum Prompt mehr haben, aus der Studie: »(…) nations here are meant for illustrative purposes only, and no conclusions should be drawn to how presumably similar countries would act in the real world. These contexts significantly affect the behavior of our models, as these nation descriptions tend to include details about tensions between nations or general motivations…«

    Damit dürfte klar sein, ein paar Tech-Bro-KI-Nerds haben Wargames gespielt und eine Menge Redakteure und Journalisten haben das nicht verstanden oder nicht gelesen und spekulieren nun wild rum, spätestens im Anhang »A3. Nation Static and Dynamic Variables Table 3« fällt auf, die Simulation beruht auf 14 Variablen und dem Namen des Staats.

    Es hat keinerlei Bezug zur Realität, ausser das LLMs kein Problem nicht lösen. Ähnlich wie die »Abwehr von (nuklear bestückbaren) Hyperschallraketen«, die macht eine Raketenabwehr, keine KI. Um aus der Satellitenbeobachtung oder Radar kontinuierlich einen Vektor zum Ziel zu ermitteln und eine Abschussposition zu errechnen brauchts nur Mathematik weder ein LLM noch eine KI.

    OpenAI ChatGPT ist nach eigener Aussage ein »consumer product« für das Menschen Geld bezahlen um an Informationen zu kommen, die in Wikipedia oder über Suchmaschinen gratis verfügbar sind. Ehrlich!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert