Künstliche Außenpolitik – Wenn Algorithmen den Krieg erklären

Atombombe, Familie schaut zu
Bild: Pixabay

Maschinen führen keine Kriege, sie liefern nur die Daten. Doch wer die Daten kontrolliert, kontrolliert das Handeln.

Dieser Artikel zeigt, wie Künstliche Intelligenz zur neuen Schaltstelle geopolitischer Entscheidungen wird und wie der Mensch dabei schleichend zum Zuschauer wird.

1. Das Ende der Intuition – Wenn Maschinen beraten, wann Menschen sterben sollen

Oktober 2023: Israel fliegt im Gazastreifen nahezu pausenlos Luftangriffe. Ziel ist es, Hamas-Kämpfer und ihre Infrastruktur zu vernichten. Doch wie entscheidet ein Militär im Minutentakt, welches Gebäude als nächstes getroffen wird?

Mehrere Investigativberichte, darunter aus dem Umfeld der israelischen Armee und US-Militäranalysten, weisen darauf hin, dass bei der Zielauswahl künstliche Intelligenz (KI) zum Einsatz kam. Dabei handelt es sich nicht um Roboter mit Waffen, sondern um Software, die riesige Datenmengen, etwa Kommunikationsmuster, Bewegungsprofile, geografische Informationen, in Echtzeit analysiert und daraus sogenannte „Zielvorschläge“ errechnet. Diese Empfehlungen gehen dann an menschliche Entscheider, die innerhalb weniger Sekunden ein Ziel freigeben oder verwerfen.

Im Zentrum der Berichte steht ein Name: Palantir. Der US-Konzern mit engen Verbindungen zum Pentagon bietet genau solche KI-gestützten Analyseplattformen an, mit denen „feindliche Netzwerke“ identifiziert und Angriffsoptionen priorisiert werden können. Offiziell bestätigt ist der Einsatz nicht, doch zahlreiche Quellen deuten darauf hin, dass Palantir-Software in Israel im Hintergrund mitlief, ob direkt militärisch oder auf der Ebene der Datenanalyse.

Wenn das stimmt, dann wurde in Gaza nicht nur geschossen, es wurde gerechnet. Der Algorithmus filterte Zielmöglichkeiten, bewertete Gefahrenpotenziale, empfahl Entscheidungen. Die Verantwortung blieb nominell beim Menschen, doch die Taktung, in der Entscheidungen fielen, spricht für eine Verlagerung des Denkens in den Code.

Was nach Science-Fiction klingt, ist längst Realität: Krieg als datengetriebene Operation, bei der technologische Überlegenheit über moralische Reflexion dominiert. Die eigentliche Frage lautet daher nicht mehr, ob künstliche Intelligenz Kriege führt, sondern wie viel Mensch noch zwischen Zielerfassung und Einschlag liegt.

2. Die Militarisierung der KI – Kriegsplanung auf Autopilot

Wer glaubt, dass Drohnen noch von Soldaten gesteuert werden und der Mensch stets den Finger am Abzug hat, lebt geistig in Top Gun. Willkommen in der Gegenwart, dort, wo Kriege auf Serverfarmen beginnen.

2017 startete das US-Verteidigungsministerium ein Programm namens Project Maven. Klingt harmlos, fast poetisch. Tatsächlich geht es um nichts Geringeres als die automatisierte Auswertung von Drohnenaufnahmen, Zielerkennung und bei Bedarf, Zielerfassung. Die Künstliche Intelligenz sichtet Material, für das menschliche Analysten Wochen oder Monate bräuchten, in wenigen Minuten. Praktisch, wenn man keine Zeit verlieren will, zum Beispiel beim Töten.

Seitdem sind KI-Systeme in der militärischen Logistik, Aufklärung und Gefechtsführung nicht nur akzeptiert, sie sind zentraler Bestandteil moderner Kriegsführung. Unternehmen wie Palantir liefern Softwarelösungen, mit denen Truppenbewegungen vorhergesagt, Schwachstellen berechnet und Gegner kategorisiert werden. Man könnte auch sagen: Der Feind wird ausgerechnet.

Ein besonders brisanter Fall spielte sich im Gazakrieg 2023 ab. Damals flogen israelische Streitkräfte Luftangriffe in ganz kurzen Abständen. Laut verschiedenen Investigativberichten kam ein KI-gestütztes System zur Zielauswahl zum Einsatz. Es analysierte Bewegungsdaten, Kommunikationsmuster, Gebäudestrukturen und lieferte Vorschläge, welche Ziele „prioritär“ zu behandeln seien. Der finale Klick blieb beim Menschen. Der Zeitdruck bei den Entscheidungen sprach allerdings Bände.

Palantir, der US-amerikanische Datenkonzern mit besten Pentagon-Verbindungen, steht im Verdacht, die Technologie im Hintergrund geliefert zu haben. Offiziell bestätigt ist das nicht, aber mehrere Quellen legen nahe, dass Palantirs Systeme zur Echtzeit-Analyse von Gefechtsfeldern auch hier eine Rolle spielten. Die Firma selbst schweigt, wie immer, wenn es konkret wird. Doch ihre Eigenwerbung spricht Bände: „Disruptive battlefield intelligence“, „AI-enabled mission dominance“. Das klingt nicht nach Friedensverhandlung.

Auch die NATO hat längst aufgerüstet, nicht mit Panzern, sondern mit Codezeilen. 2021 veröffentlichte sie ihre eigene AI Strategy“, die ausdrücklich die Integration von Künstlicher Intelligenz in Entscheidungsprozesse vorsieht. Ziel ist der sogenannte „Decision Advantage“: schneller reagieren, früher zuschlagen, Risiken algorithmisch abwägen, ohne dabei in zu viele moralische Schlaufen zu geraten.

Ein internes NATO-Papier spricht von „responsible and trustworthy AI“. Das klingt ungefähr so beruhigend wie ein Schild im Atomkraftwerk: „Bitte nur freundliche Kernspaltung“.

Die Euphorie ist groß: Mehr Tempo, mehr Effizienz, weniger Zweifel. Dabei hat man offenbar vergessen, dass Zweifel eine zentrale Kategorie zivilisierter Politik ist. Maschinen haben keine Zweifel. Sie liefern Ergebnisse. Und wenn die falsch sind? Dann hat eben das System versagt. Oder der Mensch, der es falsch bedient hat. Irgendwer ist immer schuld. Nur nie der Algorithmus.

3. Die Entmenschlichung der Außenpolitik – Wenn Kalter Krieg wirklich kalt wird

In alten Politthrillern saß der Präsident noch nachts am roten Telefon, mit zitternder Hand und allein, mit schwerer Entscheidung. Heute übernimmt diesen Part zunehmend ein Dashboard.

Was auf den ersten Blick wie Effizienzgewinn aussieht, entpuppt sich bei näherem Hinsehen als zivilisatorischer Kurzschluss: Entscheidungen, die früher auf moralischer Abwägung, diplomatischem Feingefühl und historischem Verständnis beruhten, werden heute zunehmend von Systemen vorbereitet, die weder Vergangenheit noch Ethik kennen. Nur Muster.

Eine KI kennt keine Erinnerung, keine Verhältnismäßigkeit, keinen Schmerz. Sie erkennt Cluster, Korrelationen, Frequenzabweichungen. Was aus dieser Logik folgt, ist eine radikale Vereinfachung politischer Realität: Der Mensch wird zur Variable, das Risiko zur Zahl, der Krieg zum Kalkül.

In der Praxis heißt das: Statt Diplomatie gibt es Simulation. Statt Verhandlung, Wahrscheinlichkeitsberechnung. Die Konsequenz? Die Schwelle zur Gewalt sinkt, weil die Verantwortung keine Gewissensentscheidung mehr ist. Niemand entscheidet mehr für den Krieg, es ergibt sich eben so aus den Daten.

Die US-Streitkräfte haben längst begonnen, mit KI-gestützten Planspielen („Wargaming AI“) mögliche Konfliktszenarien durchzuspielen, etwa mit China oder Russland. Diese Szenarien sind nicht als Strategie gedacht, sondern als Option. Doch Optionen, die einmal digital verfügbar sind, entwickeln eine unheimliche Eigendynamik. Wer sie nicht nutzt, gilt schnell als zögerlich. Wer sich auf seine menschliche Intuition verlässt, ist langsam. Und wer zögert, verliert. So denkt das System.

Doch was passiert, wenn dieses Denken zur Doktrin wird? Wenn eine Regierung Entscheidungen trifft, die aus algorithmischen Prognosen resultieren und dabei nur noch nach außen hin „menschlich“ erscheinen?

Dann hat Außenpolitik ihr letztes Korrektiv verloren: den Zweifel. Und Krieg wird nicht mehr erklärt, er wird prognostiziert.

4. Wer steuert den Code? – Die unsichtbaren Architekten der Kriegslogik

Wenn Maschinen Entscheidungen vorbereiten, bleibt eine Frage brisanter denn je: Wer programmiert die Maschine? Oder konkreter: Wer schreibt den Code, der den nächsten Krieg denkbar, oder führbar, macht?

Die Vorstellung, dass Staaten sich ihre militärischen KI-Systeme selbst zusammenbauen, ist ein Mythos aus PR-Broschüren. In Wahrheit sind es private Konzerne, die den technologischen Unterbau der neuen Außenpolitik liefern. Firmen wie Palantir, Anduril, Clearview AI, Rebellion Defense oder kleinere, hochspezialisierte Start-ups, fast alle mit Sitz in den USA, viele mit ehemaligen CIA-, NSA- oder Pentagon-Leuten in der Führungsetage.

Ihr Geschäftsmodell? Sicherheit als Software. Kriegsführung als Plattformdienstleistung. Was früher Generäle planten, wird heute in Produktlinien und Abo-Modellen ausgeliefert, als „operational readiness“, „tactical awareness“ oder „autonomous decision support“. Buzzwords, die in der Fachpresse wie Fortschritt klingen, aber in Wahrheit einen Verlust demokratischer Kontrolle markieren.

Denn wer entscheidet in letzter Instanz über die Trainingsdaten, die Prioritäten, die Schwellenwerte, ab wann ein Ziel als „bedrohlich“ gilt? Die Parlamente? Die Bürger? Die Diplomatie? Nein. Es sind Entwicklerteams in Kalifornien oder Think Tanks im Beltway, die genau jene Werkzeuge schreiben, mit denen später Regierungen ihre Strategien legitimieren.

Die europäische Politik schaut staunend zu, oder macht mit. Zwar gibt es innerhalb der EU vereinzelte Debatten über KI-Ethik, doch militärisch ist Europa längst technologische Kolonie. Statt eigene Standards zu setzen, werden US-Militärprotokolle und NATO-Richtlinien übernommen, inklusive KI-Module, deren Herkunft man nicht so genau wissen will. Es läuft wie bei der Cloud-Infrastruktur: Man nimmt, was funktioniert und hofft, dass es gut gemeint ist.

Dabei wäre genau hier die demokratische Kontrolle überfällig: Wer besitzt den Quellcode? Wer haftet bei Fehlentscheidungen? Und: Wer garantiert, dass die KI morgen nicht zur Eskalation rät, nur weil ihre Risikomatrix einen Schatten über dem chinesischen Luftraum entdeckt hat?

Die Antwort lautet meist: „Das System ist komplex.“
Was in diesem Zusammenhang ungefähr so beruhigend klingt wie: „Keine Sorge, das Flugzeug fliegt sich selbst, wir wissen nur nicht, wohin.“

5. Die letzte Entscheidung – Warum der Mensch nicht fehlen darf

Vielleicht wird in Zukunft kein Krieg mehr „erklärt“. Vielleicht wird er nur noch eingeleitet, wenn eine Schwelle überschritten wird, die ein neuronales Netz in einer Militärzentrale berechnet hat. Vielleicht sitzen dann Minister noch vor Kameras, lesen Statements vom Teleprompter, und keiner sagt den Satz, der früher zum Alltag politischer Vernunft gehörte: „Wir haben uns diese Entscheidung nicht leicht gemacht.“

Denn leicht ist sie jetzt. Schnell. Simuliert. Plausibel. Und wenn sie sich im Nachhinein als falsch erweist? Dann war es eben das System, das ein Signal übersehen hat. Kein Schuldiger, kein Gewissen, kein Eingeständnis. Nur ein nächstes Update.

Doch genau hier liegt die Gefahr: Der Mensch ist nicht das Problem in der Außenpolitik. Er ist ihr letzter Anker. Seine Zweifel, seine moralischen Dilemmata, seine Unvollkommenheit, all das war über Jahrhunderte der Grund, warum Krieg nicht leichtfiel. Warum man zauderte. Warum man verhandelte.

Der Algorithmus kennt kein Zaudern. Er kennt Zielkoordinaten, Prioritätenlisten, Risikomodelle. Politik wird so zur Ausführungslogik, zur Durchsetzung technisch optimierter Entscheidungen. Sie verliert das, was sie ausmacht: die Fähigkeit zur Unterbrechung.

Wir stehen an einem Punkt, an dem sich entscheidet, ob menschliche Urteilskraft im Zentrum der Außenpolitik bleibt, oder ob sie ersetzt wird durch das, was „leistungsfähiger“ erscheint. Doch Geschwindigkeit ist kein Ersatz für Verantwortung. Und eine perfekt berechnete Eskalation ist immer noch ein Krieg.

Die letzte Entscheidung, ob ein Mensch stirbt oder nicht, darf keine Systementscheidung sein.

 

Quellen zu Palantir und Gaza (2023)
  1. Palantirs Rolle in Israel (kontextualisiert, kritisch):
    https://investigate.info/company/palantir-technologies
  2. AP News über Tech-Unternehmen im Gazakrieg:
    https://apnews.com/article/430f6f15aab420806163558732726ad9
  3. Palantir selbst über militärischen Einsatz (Selbstdarstellung):
    https://www.palantir.com/solutions/defense/
  4. Palantir auf Deutsch erklärt (Netzpolitik.org):
    https://netzpolitik.org/2020/palantir-die-werkzeuge-der-ueberwachung/

🔗 Quellen zu Project Maven / US-Militär-KI

  1. Wikipedia-Eintrag zu Project Maven mit Primärquellen:
    https://en.wikipedia.org/wiki/Project_Maven
  2. US-Verteidigungsministerium über KI (DoD AI):
    https://www.ai.mil/
  3. Bericht über Googles Beteiligung an Project Maven (The Intercept):
    https://theintercept.com/2018/05/30/google-israeli-military-project-maven/

🔗 Quellen zur NATO-KI-Strategie

  1. Offizielle NATO-AI-Strategie 2021:
    https://www.nato.int/docu/review/articles/2021/10/25/an-artificial-intelligence-strategy-for-nato/index.html
  2. NATO und autonome Systeme (Bundeszentrale für politische Bildung):
    https://www.bpb.de/themen/sicherheit/konflikte/506808/nato-und-kuenstliche-intelligenz/

🔗 Quellen zu Rebellion Defense, Anduril, militärischer KI

  1. Rebellion Defense – offizielle Website:
    https://www.rebelliondefense.com/
  2. Anduril Industries (autonome Kriegssysteme):
    https://www.anduril.com/
  3. FAZ über Anduril & KI-Kriegsführung (deutsch):
    https://www.faz.net/aktuell/technik-motor/technik/anduril-waffentechnik-start-up-mit-autonomen-waffen-17590839.html

🔗 Hintergrund & Kritik zur KI-Militarisierung (deutsch & international)

  1. Frank Sauer (TU München) über autonome Waffensysteme:
    https://www.frank-sauer.org/
  2. Sandro Gaycken (ESMT Berlin) über Cyberwar & KI:
    https://esmt.berlin/faculty-research/faculty-directory/sandro-gaycken
  3. MIT Technology Review – KI in der Kriegsführung:
    https://www.technologyreview.com/2021/06/03/1025709/the-military-wants-to-automate-the-kill-chain/
Günther Burbach

Günther Burbach, Jahrgang 1963, ist Informatikkaufmann, Publizist und Buchautor. Nach einer eigenen Kolumne in einer Wochenzeitung arbeitete er in der Redaktion der Funke Mediengruppe. Er veröffentlichte vier Bücher mit Schwerpunkt auf Künstlicher Intelligenz sowie deutscher Innen- und Außenpolitik. In seinen Texten verbindet er technisches Verständnis mit gesellschaftspolitischem Blick – immer mit dem Ziel, Debatten anzustoßen und den Blick für das Wesentliche zu schärfen.
Mehr Beiträge von Günther Burbach →

Ähnliche Beiträge:

34 Kommentare

    1. „Wieso halten die 4 Jugendlichen nicht ihre Telefone hin, wenn sowas besonderes passiert?“

      Die Größte Action bei Atomwaffen passiert in den ersten Millisekunden. Danach ist die Party auch schon wieder vorbei und alle Gäste gehen schon wieder nach Hause.

      1. Und sollten sie ohne Augenschutz direkt in den Plasmablitz geschaut haben, sind sie jetzt ohnehin blind und bei der Entfernung kurz danach tot.

        1. Und was der Poster nicht Mal weiß. In der richtigen Entfernung von ground Zero wird sein Telefon durch die enorme Strahlungswärme selbst zu Dynamit. Äquivalent.

          Also, es passieren mehrere komische und nicht so komische Dinge bei einem Atomkrieg, zum Beispiel das man etwas vielfach heißeres als unseren verdammten Stern hier auf der Erde (selbst wenn es nur ein paar Millisekunden dauert) hat, der da absolut nicht hingehört. Das reicht aber aus um eine verheerende Kausalkette loszutreten, mit all seine Konsequenzen.

    2. Weil die Smartphones bereits in der ‚Aufwärmphase‘ des Atomkrieges durch einen EMP zerstört wurden. Außerdem greift (in naher Zukunft) bei solch unerfreulichen Themen bzw. Bildern ohnehin die EU-KI-Safe.Net-Sperre ein und ersetzt alles durch Katzen¹bilder.

      ¹Gegen Aufpreis auch Hunde oder Pferde verfügbar

  1. Das zeigt die Unmenschlichkeit überhaupt. Der für den Völkermord verantwortliche Netanyahu? Wird hier in Deutschland vom BK auch noch hofiert und weiter freudig mit Waffen beliefert! Ich nehme das insbesondere der deutschen Regierung richtig übel!
    Wenn es Dummheit wäre, könnte man es vielleicht noch verzeihen. Aber das ist es keinesfalls!

    KI zur Kriegsführung? Selbst ein Verbot dazu hätte nicht geholfen. Es wird alles benutzt! Vollkommen egal ob geächtet oder nicht!

    Wie nun dem heuchlerischen Westen mit den Haufen Psychopathen an der Spitze beikommen? Das bleibt die alles entscheidende Frage!

    1. > KI zur Kriegsführung? Selbst ein Verbot dazu hätte nicht geholfen.

      Schon bei den vorangegangenen Strafaktionen der israelischen Armee wurde mit barbarischer Härte vorgegangen. Kein Auge um Auge. Kein Zahn um Zahn, sondern vorbiblisch. Früher auf brutale Unterdrückung und Verdrängung, jetzt auf Vertreibung und Auslöschung angelegt.
      Jetzt wird offen und offiziell erklärt, dass jedes Kind in Gaza Feind ist
      https://www.fr.de/politik/israel-offensive-politiker-erklaert-kinder-im-gazastreifen-zum-feind-zr-93744873.html

      Würde mich nicht wundern, wenn irgendwann in 50 Jahren bekannt würde, dass die israelischen Geheimdienste, die sonst alles und jeden infiltrieren, am 7. Oktober keineswegs ahnungslos waren. Jedenfalls waren die KIs mit Daten gefüttert, trainiert und einsatzbereit.

      1. Die Israelis waren nicht ahnungslos bezüglich dem 7. Oktober, die haben das
        genaustens geplant! Das Festival welches von den „Terroristen gestürmt wurde,
        ist kurz vorher überhaupt an diesen Ort verlegt worden. Es gab praktisch keinen
        Grenzschutz und es ist auch keine Mine des Grenzstreifens explodiert. Dafür waren
        um das Festivalgelände Soldaten sogar mit Panzern positioniert. Diese haben dann
        bei dem Angriff gezielt auf die Gebäude geschossen in die die Festivallbesucher
        flüchteten. Zeugen wurden schnell aus dem Verkehr gezogen.

    2. Was soll man dazu noch sagen?

      „Scharfe Kritik übte van Aken auch an den bisherigen Sanktionspaketen der EU, die aus seiner Sicht nicht funktionieren. „Man muss endlich mal rangehen an die Schattentankerflotte, die das illegale russische Öl durch die Ostsee fährt. Man muss rangehen an dieses Flüssiggas. Wir kaufen im Moment noch Gas aus Russland, und zwar in großen Mengen. “
      https://www.welt.de/politik/ausland/article256143790/Krieg-in-der-Ukraine-Merz-wird-im-Kreml-auf-Monate-niemand-ernst-nehmen-aetzt-der-Linken-Chef.html

      1. Wenn die Handelsschiffe von Russland aus blockiert, gar festgehalten oder beschlagnahmt werden, ist das der Zündstoff für den 3. Weltkrieg…
        Irgendwer sollte mal den von Aken das verbal einprügeln!

        1. Die Linke, zumindest Aken sind fertig, politischer Abfall. Wurden ja nicht umsonst über die 5% Grenze gebracht. Da zeigt man sich dankbar gegenüber der Regie.
          Und während über die russische Risiko-Flotte jeden Tag berichtet wird, geht fast unter, dass sich ein Flüssiggastanker auf Grund festgefahren hatte – hätte auch anders ausgehen können.

  2. In Nordkorea geht es zum Glück noch rustikal zu. Beim Stapellauf des (Einzahl) neuen Zerstörers ist das Schiff im Beisein des Marschalls abgeglitscht und schwimmt jetzt traurig mit zerquetschtem Rumpf auf der Seite im Hafenbecken. Die Volksverräter sind identifiziert und werden hingerichtet.
    Westliche Experten gehen davon aus, dass die DVRK aus Mangel an einem Trockendock Monate für die Reparatur brauchen wird, wenn sie überhaupt Möglich ist. Der Marschall in seiner allumfassenden Weisheit hat allerdings eine Reparatur dieser Schande bis zum Parteitag der Arbeiter im Juni befohlen. Was ist schon eine KI gegen den Führerbefehl?!

    1. Waffen gleich nach Fertigstellung vernichten, ist ja geradezu vorbildlich!
      Die israelische Armee ist ja seit langem schon ein Schritt weiter: die erschießt mit Vorliebe die eigenen Leute.

    2. Die bauen wenigstens noch Schiffe die „abglitschen“ können. Wir dagegen haben nur noch die Fachwörter dafür. BTW wieso haben wir überhaupt Wörter für so einen Vorfall?

      Kann es sein das in unserer eigenen Historie schon genug Schiffe „abgeglitscht“ sind, das wir sogar Wörter dafür finden mussten?

    1. Wenn du denkst bei der Linken gehts nicht noch tiefer, falsch gedacht.
      Diese Partei kann man im Prinzip auflösen und in die Oliv-Grünen oder SPD integrieren.
      Es ist traurig das die es mit ein paar populistischen Sprüchen vor der Wahl, an die Unterschicht gerichtet, auf 8% geschafft haben.

    2. „Scharfe Kritik übte van Aken auch an den bisherigen Sanktionspaketen der EU, die aus seiner Sicht nicht funktionieren. „Man muss endlich mal rangehen an die Schattentankerflotte, die das illegale russische Öl durch die Ostsee fährt. Man muss rangehen an dieses Flüssiggas. Wir kaufen im Moment noch Gas aus Russland, und zwar in großen Mengen. Wir finanzieren den Krieg in der Ukraine.““

      Ja ja, die feinen Herrschaften bei der Linken, immer schön auf Kriegskurs, seinerzeit ebenso ganz vorne bei den Corona-Restriktionen.
      Ekelhaftes Pack, welches an den Schweinetrog möchte. Genau so ein Gesocks wie die AfD, immer schön auf Nato-Kurs. Man kann sich nur noch mit Grauen abwenden.

        1. Das (Label) passt doch perfekt: die sind link (aber nicht links)!

          „Finde den Fehler!“

          Der steht vor der (Wahl)Urne.
          Und hat keine Wahl (von der Fassadenfarbe mal abgesehen)…

  3. Dieser Meinung bin ich nicht. Am Krieg hat sich nichts geändert. Es gab schon immer auch „automatische“ Waffen wie Minen, Fallen usw. Es ist aber auch da die Entscheidung des Menschen wo sowas eingesetzt wird und gegen wen. Und ja es hat schon immer auch mal den falschen getroffen.

    Auch bei KI, entscheiden tut nachwievor ein Mensch. Man sollte sich da nicht verwirren lassen. Man muss eher aufpassen das das nicht als Entschuldigung oder Ausrede benutzt wird. Irgendein Mensch hat den Einsatz der KI angeordnet. KI ist letztlich auch nur eine Maschine, ein Hilfsmittel. Dieselbe Frage konnte man sich schon vor 30 Jahren bei Software allgemein stellen.

  4. Den Völkermord befehlen Menschen, israelisch-zionistische-faschistische Herrscher!
    Große Teile der israelischen Bevölkerung unterstützen diesen Völkermord!
    Das darf man niemals vergessen!

    Sie nutzen die KI um bewußt das palästinensische Volk zu terrorisieren, zur Flucht zu zwingen. Das nennt man morale Bombing oder auch imperiale Aufstandsbekämpfung. Diese Methode haben die Briten entwickelt und gegen aufständische Kolonialvölker eingesetzt. Ohne militärische Notwendigkeit zerstörte die Royal Airforce (RAF) im WK 2 auch deutsche Städte.

    Die derzeitig einsetzten KIs haben wahrscheinlich kein Bewußtsein! Vielleicht entwickelt die KI weltweit mal ein Bewußtsein. Wenn diese KI dann rational handelt, wird sie die Mordlust der Menschen unterbinden, macht dann Schluß mit den israelischen Terror.

    Die Menschheit schaut zu wie ein ganzes Volk abgeschlachtet wird, protestiert ein wenig, tut aber nichts um den Völkermord zu beenden. Eine solche Menschheit wird nicht mehr gebraucht! Dann wäre es besser eine hochentwickelte KI regiert die Welt und sorgt für Frieden, bescheidenen Wohlstand und Gerechtigkeit. Die israelische Kriegsmaschinerie wird dann einfach abgeschaltet!

    1. Tüddelkram wenn SKYNET an den Start geht ist die Menschheit für immer Geschichte und nicht nur die Palästinenser in Gaza, das ganze hat mehr von einen Moorhuhn-Shooter als wenn ein echter Kampf von einer KI realisiert wird. Das ganze dient mehr der Exkulpation für die Beteiligten.

      1. Nicht so die KI von Freedomofspeech; die weiß nämlich, wer gut und wer böse ist. Sie hat ja auch nur „wahrscheinlich“ kein Bewusstsein…

    2. @Freedomofspeech

      „Große Teile der israelischen Bevölkerung unterstützen diesen Völkermord!
      Das darf man niemals vergessen!
      „Große Teile der israelischen Bevölkerung unterstützen diesen Völkermord!
      Das darf man niemals vergessen!“

      Man darf aber auch die Israelis nicht vergessen die dagegen sind um sich mit ihnen zu solidarisieren und diese Opposition in Israel zu untersützen.

  5. Neu ist das nicht. Im Atomkrieg gilt: wenn uns der Gegner angreift, dann wird er unsere Atomraketen zerstören. Wir müssen all unsere Raketen abschicken, bevor die feindlichen einschlagen. Unwiderruflich, die kann man dann nicht mehr zurück holen. Die schlagen dann beim Gegner ein.
    Eben das hat sich im Jahr 1983 ereignet. Stanislaw Petrow hat gegen seine Dienstanweisung verstoßen. Allerdings hätte auch da noch ein Mensch auf den roten Knopf drücken müssen.
    https://de.wikipedia.org/wiki/Stanislaw_Jewgrafowitsch_Petrow
    Da darf natürlich Israel nicht fehlen. Da sucht die KI natürlich nach Frauen und Kindern, wenn man der deutschen Nazipresse glauben darf. Aber es ist ihnen trotzdem gelungen, den intensiven Raketenbeschuss abzustellen.
    Auch das schon ein Skandal. Was fällt denen ein, sich zu wehren? Die müssen sich doch beschießen lassen.

  6. Dem Burbach schenke ich zu seinen Artikeln ja gerne kräftig ein, da kann ich es diesmal natürlich nicht lassen. Hm, vielleicht so:

    Herr Burbach, Sie haben mich schwer enttäuscht! Keine versteckte Message, kein Framing, keine geschickt umschriebenen Zumutungen – gar nichts? Oder doch: Das Ding ist gut zu lesen, beschreibt die Rolle von KI in der Befehlskette zutreffend und hat einen sauber strukturierten Quellennachweis, von dem man sich ein Scheibchen abschneiden könnte

    OK, hier musste ich schlucken:

    Ziel ist es, Hamas-Kämpfer und ihre Infrastruktur zu vernichten.

    Das eigentliche Ziel war ja wohl von Anfang an, ganz Gaza abzuräumen. Und wenn man schon Palantir – sehr zu Recht – an den Pranger stellt, sollte ein Nebensatz für den Mitbegründer Peter Thiel drin sein, den Multimilliardär, der mit J.D.Vance immerhin den Vize von Trump kräftig gesponsert hat. Just saying …

    Ich hoffe, Ihnen damit wieder gehörig eingeschenkt zu haben. Und weil der Artikel gut ist, geht der nächste Becher auf mich. Prost, hat mich gefreut.

  7. Der Kommentator „Cetzer“ hat weiter oben den Schenkelklatscher gebracht, dass vor dem Ausbruch eines Atomkrieges eine KI das Web mit „Katzenbildern“ fluten würde.
    Das ist nicht nur sarkastisch komisch, sondern ich halte das auch für gut beobachtet. Denn schon heute ist die Namensgebung dieser algorithmengesteuerten Vernichtungsmethoden an (unfreiwillig komischem?) Zynismus frappierend.
    So heißen diese Programme:
    „The Gospel“, „Lavender“ und (jetzt wird’s wirklich zynisch) „Where’s Daddy?“ Das zuletzt genannte Programm rückt das angebliche Zielobjekt in den Fokus, den bösen Hamas-Daddy, für den es laut IDF-Doktrin gerechtfertigt sein soll, Dutzende weitere Familienangehörige zu bombardieren.
    https://www.telepolis.de/features/KI-als-Kriegswaffe-Warum-wir-Israels-Armee-im-Blick-haben-sollten-9817532.html
    Im Allgemeinen ist das Thema „Gazakrieg“ insbesondere in Deutschland allerdings stark tabuisiert. Wenn nicht die IDF-Darstellung – meist kritiklos – übernommen wird, dann wird die Öffentlichkeit in der Tat mit „Katzenbildern“ der einen oder anderen Art bzw. mit hochgejazzten „Schurken“ wie „Putin“ vom Thema abgelenkt.
    Man muss tatsächlich auf anderssprachige Medien ausweichen, wenn man nach einer breiter angelegten Informationsbasis sucht. Neben „Al Jazeera“ sind das bspw.:
    https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes
    https://responsiblestatecraft.org/peter-thiel-israel-palantir/
    https://www.trtworld.com/magazine/how-israeli-militarys-ai-is-marking-gaza-children-civilians-for-death-18249123

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert