Ukraine-Krieg und die Machtübernahme der autonomen Kampfsysteme

Shoolika mk6 Drohne. Bild: SkyLab UA

Für Russen und Ukrainer ist der Krieg ein Labor, um Techniken zu testen und zu entwickeln. Wahrscheinlich wird es der erste KI-Krieg werden.

Wir hatten vor kurzem berichtet, dass wahrscheinlich in der Ukraine schon KI-gesteuerte autonome Drohnen (z.B. die russische Lancet- und die ukrainische Saker Scout-Drohnen) im Einsatz sind, die ohne menschliche Eingriffe feindliche Ausrüstung und Soldaten angreifen können. Von Seiten der Ukraine soll die KI von Saker-Drohnen 64 unterschiedliche militärische Objekte unterscheiden können. Bei Menschen gebe es aber noch Probleme. Oft werden die KI-Drohnen zur Erkundung und Identifizierung von feindlichen Objekten wie Panzern eingesetzt, um diese mit FPV-Kamikazedrohnen anzugreifen. KI-gesteuerte Drohnen haben auch den Vorteil, nicht von GPS abhängig zu sein, weil sie sich am Terrain orientieren können.

Die Ukraine stellt sich selbst als „Kriegslabor für die Zukunft“ dar, staatliche Rüstungsfirmen arbeiten mit privaten Firmen und Start-Ups, im Krieg ist vieles möglich, was sonst auf Bedenken und Hindernisse stoßen würde. Eben hat der ukrainische Präsident Selenskij gemeldet, dass über eine Million Drohnen, die mit staatlichen Geldern gekauft wurden, bereits an der Front im Einsatz seien. Dazu kommen noch ungezählte Drohnen, die die Ukraine aus dem Westen erhalten hat oder die durch Spenden erworben wurden.

Für Fedorov, den Minister für Digitale Transformation, ist die Ukraine das „Testfeld für neue Techniken“, die hier entwickelt und gleich eingesetzt werden können. Die Technikbranche, vor allem die Rüstung, soll zur „Wachstumsmaschine der Zukunft“ werden. Wahrscheinlich soll damit Israel kopiert werden, dessen exportorientierte Rüstungsindustrie auch davon profitiert, dass neue militärische Techniken im „palästinensischen Labor“ (Antony Loewenstein) getestet wurden. Selbstverständlich ist der Krieg auch für Russland ein Testfeld, um Techniken zu verbessern, neue Waffen zu entwickeln oder sie wie die Überschallraketen zu testen.

David Kirichenko, der sich mit Cyberwar und autonomen Systemen beschäftigt, hat in einem Artikel über die Lektionen aus dem Ukraine-Krieg für die Nato u.a. auf die zunehmende Rolle der KI hingewiesen. Der Ukraine-Krieg werde zum ersten KI-Krieg und damit das Schlachtfeld zu einem „Kampf der Algorithmen“. Wer zuerst autonome Drohnen einsetze, habe einen Vorteil, aber wenn es mit der Freund-Feind-Erkennung nicht klappt und Zivilisten zu Opfern werde, könne die internationale Legitimation schwinden. Zwar würden autonome Drohnen nicht durch das übliche Jammen der Elektronischen Kriegsführung mehr gestört werden können, aber Hacker könnten die Kontrolle übernehmen und die Drohnen gegen ihre ursprünglichen Benutzer oder gegen Zivilisten einsetzen. Darauf müsse man sich vorbereiten. Die Frage werde auch sein, ob die Entscheidungs- oder Urteilskraft von autonomen Systemen ausreichend gut ist, um „unter dem Stress und der Unvorhersehbarkeit des Kampfs in der realen Welt“ und in den „komplexen und permanent sich verändernden Kampfsituationen“ nicht zu schwerwiegenden Fehlern zu führen.

Nach Kirichenko ist die Effizienz der ferngesteuerten FPV-Drohnen im Krieg aufgrund der Elektronischen Kriegsführung drastisch zurückgegangen. Selbst gute Piloten hätten höchstens noch eine Trefferquote von 50 Prozent, neue Rekruten vielleicht noch von 10 Prozent. Die Kampftaktiken der russischen und ukrainischen Streitkräfte haben sich dem Drohnenkrieg auch insofern angepasst, als man sich an der Front stärker auf kleine Kampfgruppen statt auf größere Kampfverbände mit Panzern und gepanzerten Fahrzeugen verlässt und Soldaten auf Motorrädern vorstoßen, weil diese schwerer von Drohnen aus zu erkennen und zu treffen sind.

Mit den KI-ausgestatteten Drohnen würde die Trefferquote aber wieder auf 80 Prozent ansteigen. Auf ukrainischer Seite soll dafür vor allem die KI-Software des amerikanischen Unternehmens Palantir verantwortlich sein, mit dem ukrainische Ministerien und die ukrainischen Streitkräfte von Anfang ausgestattet waren. Militärisch werden Satelliten- oder Radarbilder, offen zugängliche Daten, Drohnenbilder oder Berichte von Soldaten in fast Echtzeit ausgewertet, um beispielsweise für die Artillerie Angriffsziele zu identifizieren und vorzuschlagen. Aber die KI, die lernt und sich verbessert, dient auch zur Beseitigung von Minen oder zur Identifizierung von (russischen) Kriegsverbrechen, wozu auch die umstrittene Firma Clearview mit ihrer Gesichtserkennungstechnik beiträgt. Die Zeitschrift Time hat über Palantir und das Labor Ukraine gerade einen begeisterten Bericht veröffentlicht.

KI-Systeme, die zwischen Freund und Feind sowie Kämpfern und Zivilisten unterscheiden sollen

Kirichenko können die mit der Palantir-KI ausgestatteten Drohnen nicht nur Objekte, sondern auch russische Soldaten erkennen, nachdem die KI mit Bildern von solchen gefüttert wurden. Allerdings würden sie offenbar vor allem an ihren Uniformen, ihren Waffen und ihrer Ausrüstung erkannt, aber auch an ihrem Verhalten. Das ist interessant. Das wird dazu führen, ich habe das schon einmal erwähnt, dass die Soldaten keine Uniformen und andere Kennzeichen mehr wie die blauen oder roten Armbinden mehr tragen werden. Dadurch können sie mit Zivilisten verwechselt werden bzw. diese mit Soldaten. Und auch die Fahrzeuge werden unkenntlich gemacht werden. Das demonstrative russische Z wird verschwinden.

Wie Soldaten von verschiedenen Kriegsparteien an ihrem Verhalten zu erkennen sind, klingt exotisch. Gehen oder Laufen die Russen oder die Ukrainer aus dem Donbass anders als die Ukrainer aus den von Kiew kontrollierten Gebieten? Denkbar wäre, dass sie mitunter andere Formationen bilden. Schon die Unterscheidung anhand von Waffen und Ausrüstung ist mitunter schwierig, weil Russen und Ukrainer auch mit Waffen aus sowjetischen Zeiten kämpfen, die beide Streitkräfte verwenden. Man darf annehmen, dass Tarnungs- und Täuschungsstrategien weiter entwickelt werden, um KI-Systeme zu verwirren.

Tatsächlich wird ein Hauptproblem bleiben, wie KI-Systeme auswählen, wer oder was zum Ziel werden kann und wie das Kriegsrecht umgesetzt wird, Kollateralschaden möglichst zu vermeiden. Die Irrtumsanfälligkeit der lernenden  generativen Systeme wird für Probleme sorgen. Und ähnlich wie bei autonomen Autos wird die Frage sein, wer für Kriegsverbrechen der autonomen Kampfsysteme verantwortlich gemacht werden soll: die Hersteller und Programmierer, die für den Erwerb oder den Einsatz Verantwortlichen, die Soldaten und Kommandeure an der Front? Das Problem ist im Unterschied zum traditionellen Krieg und noch bei ferngesteuerten Robotern, dass es absurd wäre, autonome Systeme zu bestrafen, obgleich sie selbst nach Vorgaben und lernend entscheiden, wen oder was sie angreifen.

Noch ist offenbar im Vordergrund, die feindlichen Soldaten und zu jagen und zu erlegen sowie die Ausrüstung, Stellungen und Logistik zu zerstören. Das wird weiterhin Ziel der Kriegsführung bleiben. Es werden zunehmend Drohnen- und Kampfroboterschwärme verwendet werden, um jede Abwehr zu überwältigen, die aber auch KI-gesteuert sein wird. Mithin werden unterschiedliche KI-Systeme auch gegeneinander kämpfen. Menschen können dann nicht mehr eingreifen, wenn Entscheidungen wie im Hochfrequenzhandel in Millisekunden gefällt werden müssen. Menschen werden immer weniger direkte Täter sein, sondern zu Opfern werden – auch weit hinter der Front in den Kommandozentralen. Die Hoffnung könnte nur sein, dass diese Aussicht friedensfördernd wirkt. Andererseits könnte es auch sein, dass autonome Systeme auch  der Kontrolle entwischen und eigenständig Krieg führen könnten.

Palantir ist auch Liebling des Pentagon

Das Pentagon finanziert das Maven Smart System (MSS) von Palantir zur autonomen Zielidentifizierung (Positive target identification – PID) als der wichtigen Stufe im Zyklus Decide, Detect, Deliver, Assess. Offenbar wird das System auf dem US-Stützpunkt in Jordanien bereits eingesetzt. Das Pentagon fördert die KI-Entwicklung durch mehr als 800 Projekte und sieht in KI die militärische Zukunftstechnik: „KI wird weiterhin das Schlachtfeld verändern, sei es durch autonome Waffensysteme, Cybersicherheitsprotokolle oder unbemannte Luftfahrzeuge (UAV). Sie verändert die Art und Weise, wie wir operieren und reagieren, und wirkt sich auf die Einsatzplanung und Ressourcenzuweisung aus. Der Einsatz von KI wird die Möglichkeiten der Streitkräfte weiter ausbauen und ist potenziell die Schlüsseltechnologie, um sicherzustellen, dass das US-Militär strategisch, operativ und taktisch vorbereitet bleibt.“

Dieses Jahr erhielt Palantir 480 Millionen US-Dollar für die Weiterentwicklung von MSS), zudem wurden 2024178 Millionen US-Dollar  in die Entwicklung des Tactical Intelligence Targeting Access Node (TITAN) von Palantir investiert, um wieder durch Auswertung zahlreicher Informationen aus vielen Quellen Ziele über Tausende von Kilometern hinweg, um durch „deep sensing“ die Zeit zwischen Erkennen und Schießen zu reduzieren. Das macht auch deutlich, dass der Krieg aus der Ferne bzw. die Kriegsführung über große Distanzen mit Raketen, weitreichender Artillerie und Drohnen näher rückt, überall auf der Welt alles möglichst in Echtzeit erkennen, verfolgen und angreifen zu können.

Ähnliche Beiträge:

44 Kommentare

  1. Es gibt keinen menschengemachten Klimawandel!
    Hier geht es um Peter Thiel, einen der gefährlichsten Menschen auf der Welt, vor dem ich schon vor mehr als einer Dekade gewarnt habe.

    1. Kannst Du Deinen Scheiß zum Thema Klimawandel nicht ein einziges Mal für Dich behalten?
      Durch permanentes Wiederholen wird‘s nicht besser.

      1. Er schreibt “Menschengemachten”!!!! Es gibt nicht DIE Wissenschaft. Es gibt also auch ernstzunehmende andere Meinungen als deine. Wer hier also Scheiße von sich gibt, gilt es noch zu klären. Nicht jeder springt auf den grünen Verarschungszug auf.

    2. @Publicuser
      Ach herrje.
      Immer wieder der gleiche Scheiß hier in den Alternativmedien.
      Ich lehne das herrschende Narrativ zum menschengemachten Klimawandel auch ab. Ich lehne es ab, mich von reichen Arschlöchern darüber belehren zu lassen, dass ich persönlich für den Untergang der Menschheit verantwortlich sein soll.
      Aber ich bin nicht so blöd, dass ich das reale Problem verneine, nur weil die Verursacher der ganzen Malaise mir ihren Scheißhaufen überhelfen wollen.

  2. ……wenn erst all diese ,,tollen‘‘ Sachen in Modellbaukästen über Amazon vertrieben werden wird es richtig spannend…., der ganze Krieg nur noch ein monumentales Computerspiel und alle dürfen mitmachen..Gute Nacht Marie!

    1. Diese Modellbausachen von Amazon gibt es zum Glück nicht für den Privatanwender in der Variante ‘wirf mal schnell irgendwo eine Granate in einen Panzer’. Es ist aber theoretisch machbar, sich selbst ein Drohne aus 4 handelsüblichen Motorsensen und einigen kostengünstigen Elektronik- und Pneumatikbauteilen ein Gerät zu bauen, das einen Fallschrimjäger oder eine andere, entsprechend umfängliche Nutzlast zu beförden und sicher abzusetzen in der Lage ist.

      Sowas baut ihnen jeder halbwegs technikaffine Nerd in weniger als 7 Tagen.

  3. “Und ähnlich wie bei autonomen Autos wird die Frage sein, wer für Kriegsverbrechen der autonomen Kampfsysteme verantwortlich gemacht werden soll: die Hersteller und Programmierer, die für den Erwerb oder den Einsatz Verantwortlichen, die Soldaten und Kommandeure an der Front?”

    Bisher ist bei solchen Fragen folgende Antwort der Standart: “Softwarefehler, kannste nix machen!”
    Da ist ja auch was dran, da in hochkomplexen Systemen, wo kein Mensch mehr durchsieht oder nachvollziehen kann, wie es zu welcher Entscheidung (um Leben oder Tod!) kam, dann logischerweise auch kein Mensch dafür verantwortlich ist – es hat ja die KI entschieden.
    Mit Floskeln wie “bedauerlicher Fehler, den Niemand nachvollziehen kann” wirds dann erledigt sein – höchstens wird noch ein strategischer Kommunikator zum Glätten der Wogen und ein (heute KI-gesteuerter) Zensor beschäftigt (Letzterer unterdückt die Publikation nachfolgender Fehler). Ähnliches wie nach dem Vietnamkrieg halt…

    Militär ist aristokratisch erhaben über jegliche Kritik und Verantwortung, sei es beim Klimawandel, beim Säen von zwischenmenschlichen Hass…und im Krieg ja sowieso.

    Auch im Gaza-/Libanon-Krieg läßt sich KI-Targeting schon gut beobachten und fällt vor Allem durch völlig fehlende Ethik (man könnte auch von totaler menschlicher Enthemmung sprechen) und exorbitante Anzahl von zivilen Opfern auf gepaart mit absoluter Verantwortungslosigkeit auf.

    Ansonsten stammen die verlinkten Artikel aus der Feder von Jubelpersern.
    Und die fast schon religiös hochgeschriebene KI eigendlich ganz simpel zu schlagen: mittels Stromsperre. Siehe Ukraine…

    1. >>Militär ist aristokratisch erhaben über jegliche Kritik und Verantwortung, sei es beim Klimawandel, beim Säen von zwischenmenschlichen Hass…und im Krieg ja sowieso.<<

      Ja, so eine v. Schande, die Politik!

      1. Das ist wohl schlechte Satire oder ist das wirklich ernst gemeint??
        Sollte letzteres der Fall sein, empfehle ich dringend einen Besuch beim Psychiater!

  4. Ein KI-gesteuerter, völlig autonom agierender Kampfroboter (oder im speziellen Fall eine Drohne) benötigt, um einigermaßen zuverlässig zu funktionieren, einen höchstleistungsfähigen KI-Chipsatz und eine riesige Datenbasis, um selbständig Entscheidungen treffen von denen Leben oder Tod abhängt. Allein die Hardware und eine halbwegs adäquate Sensorik dafür ist zum Glück noch viel zu teuer, um auf Seiten der NATO flächendeckend zum Einsatz zu kommen, ganz abgesehen davon, dass diese Komponenten in absehbarer Zeit auch aus gediegenem Chinesium, Nordkoreanium oder gar Iranium hergestellt werden dürften. Der technologische Fortschritt lässt sich nun einmal nur gewaltsam aufhalten.

    Eine rein KI-betriebene Drohne hat gegenüber einer FPV (first person view) Drohne theoretisch den Vorteil, dass sie, sofern sie hinreichend gegen elektromagnetische Strahlung abgeschirmt, weniger anfällig gegenüber elektromagnetischen Strahlungsquellen ist, die der Feind (wen auch immer wir damit meinen) einsetzt, um Drohnen zur Strecke zu bringen.

    Kommuniziert eine Drohne im Schwarm dagegen mit ihren Leidensgenossinnen oder dem Internet, verringert dies zwar den Umfang der Anwesenheit einer individuellen Datenbasis, erhöht aber wegen des hierfür erforderlichen Funkfeuers auch wiederum die Anfälligkeit gegenüber elektromagnetischen Emittenten.

    Die Russen setzen daher bereits glasfaserdirigierte Tötungsmaschinen ein, da diese für die elektronischen Abwehrmaßnahmen des Gegners weitgehend unempfindlich sind. Wer weiß schon, welchen heißen Scheiß diese Irren von der Wettrüstungsfraktion noch produzieren werden aber so richtig marktreif ist das dem Himmel sei Dank alles noch nicht.

    Unterbrechen SIe mich bitte, wenn ich was Falsches geschrieben habe.

    1. Ach, wieso sollte ich jemanden bei seiner Meinungsäußerung unterbrechen ;-).

      Es ist allerdings so, dass es viel einfacher sein wird “KI-Drohnen” oder “Kampfroboter” im Krieg einzusetzen (oder dort einzusetzen, wo man der Meinung ist, dass Krieg herrscht) als “KI-Drohnen” oder “Kampfroboter” im jeweils eigenen Staatsgebiet (während vermeintlichen friedlichen Zeiten) nun (autonome) Polizeiaufgaben bzw. Sicherheitsaufgaben übernehmen zu lassen. Was daran liegt, dass man für manche Dinge eben nur eine gute Kategorisierung bzw. Erkennungsrate bei den eigenen Streitkräften (um friendly fire zu reduzieren¹) braucht, eine weitere Kategorisierung ist eigentlich weniger nötig (zur Not werden die eigentlich zivilen Objekte oder Indivduen, welche beschädigt, zerstört, verletzt oder getötet worden sein werden, dann entweder vom “Feind” getroffen oder waren dann doch Feinde oder militärische Objekte, welche sich nur getarnt hatten – es ist halt alles eine Frage der späteren “strategischen Kommunikation”). Bei Polizeieinsätzen ist so etwas dann doch etwas schwieriger möglich…

      ps. Um hacken von “KI-Drohnen” zu verhindern (oder möglichst schwierig zu machen), könnte man übrigens dazu übergehen, dass gewisse Dinge nur über einen direkten phsykalischen Zugriff (z.B. Anschluss von Tastatur oder Kabel)
      der Drohne möglich ist. Vor allem in der Kombination, dass die Drohne (außer durch Zerstörung) sich nicht “remote” abstellen läßt, außer dass der Drohne der Saft ausgeht, könnte weiterhin das Risiko der Stilllegung der Drohne durch “hacken” noch zusätzlich reduzieren. (Natürlich hat beides Seiteneffekte, aber dann bin ich mir sicher, dass die Seiteneffekte natürlich niemanden, welcher an Kriegsspielen mit Drohnen als Kriegsspielzeug interessiert ist, interessiert bzw. die möglichen Seiteneffekte kleingeredet werden).

      pps. Für gewisse Dinge muss die Datenbasis beim Training vorhanden sein (und benötigt dann auch entsprechende Rechenressourcen), nach vollendeten Training wird die Datenbasis nicht mehr benötigt und auch weniger Rechenressourcen sind nötig – und für Kampfeinsätze sind sicherlich zumeist KI-Drohnen ohne angeschalteten “Lernmodus” vorzuziehen, u.a. da das Training durch den Verlust der Drohne verloren gehen könnte (Übermittelung der Daten von Kampfdrohnen an ein Rechenzentrum, um die Daten dann für das Training von “neueren” Drohnen zu verwenden,ist natürlich möglich).

      ¹) wobei man dieses aus taktischen/strategischen Gründen in manchen Fällen auch ignorieren kann (bzw. Verluste durch friendly-fire auch einkalkulieren kann), sofern der potentielle (bzw. versprochene) Gewinn dadurch nur groß genug ist.

      1. Natürlich wird die Datenbasis auch nach vollendetem Training weiter benötigt, zumindest in der KI selbst. Ohne assimilierte Datenbasis (was mindestens ebensoviel Ressourcen wie eine entsprechende, gescheite Datenbank in Anspruch nimmt), ist Ihre KI so blind wie ein gerupftes Trampolin.

        1. Wenn Sie es sagen muss es natürlich richtig sein ;-).
          Es ist natürlich nicht so, dass Trainingsdaten nun nach erfolgten Training, nur durch die Gewichte der einzelnen “Neuronen” in einem neuronalen Netzwerk vorhanden sind. Und natürlich kann es auch nicht sein, dass eine Datenbank (egal ob relational oder anderer Art) oder eine Menge von Datenbanken (aufgefasst als eine Datenbank), welche die Trainingsdaten beinhaltet, nun letztlich viel größer als das gesamte neuronale Netzwerk wäre oder sogar die Beschreibungskomplexität der gesamten Trainingsdaten nun größer ist als die Beschreibungskomplexität des neuronalen Netzwerks wäre. Da natürlich Grubenhund die einzige wahre Instanz bzgl. KI ist ;-).

          Nach Training der KI (bzw. besser neuronalen Netzwerk, welche hier normalerweise als KI aufgefasst werden) werden für ein “ordnungsmäßiges” funktionieren der KI nur die jeweiligen Eingabedaten (für die Generierung der Ausgabe) benötigt. Im Falle von Kriegsspielzeugdrohnen wären die Eingabedaten eben die Sensordaten der Drohne selbst und andere Eingabedaten (z.B. von anderen Drohnen oder anderen Aufklärungsdaten – z.B. Satellitendaten) für die jeweils aktuelle Operation/Mission der Drohne – die Ausgabedaten wären jeweils das Verhalten der Drohne.

    1. >>Ob wir uns vielleicht eines Tages nach unseren Höhlen zurücksehnen werden?<<
      Absolut. Leider müssen wir jedoch den Tatsachen ins Auge blicken, lieber Freund, auch wenn es sich nur um die stumpfen Augen einer Drohne handelt.

    1. In diesem Land wollen das die Menschen mehrheitlich. Viele können sich ein Leben ohne Anweisungen aus Washington gar nicht vorstellen. Sie habe panische Angst vor einem eigenverantwortlichen Leben!

  5. Mal abgesehen vom Bullshit-Bingo von wegen KI:

    Natürlich wird in Richtung autonome Drohnen entwickelt. Neben den genannten Gründen:
    Im Krieg wird ja nicht so’n Bohei gemacht, wenn mal ‘n Mensch zu Schaden kommt. Das kommt dann auch den Autos zugute. Wenns geht. In jedem Fall bleiben sie dran. Ist ja genug Geld zu holen.

    Wichtige Waffe des Infantristen bleibt also der Baseballschläger.

  6. Vielen Dank an Florian Rötzer für das Aufgreifen dieses gruseligen Themas.

    “Tatsächlich wird ein Hauptproblem bleiben, wie KI-Systeme auswählen, wer oder was zum Ziel werden kann und wie das Kriegsrecht umgesetzt wird, Kollateralschaden möglichst zu vermeiden. Die Irrtumsanfälligkeit der lernenden generativen Systeme wird für Probleme sorgen. Und ähnlich wie bei autonomen Autos wird die Frage sein, wer für Kriegsverbrechen der autonomen Kampfsysteme verantwortlich gemacht werden soll: die Hersteller und Programmierer, die für den Erwerb oder den Einsatz Verantwortlichen, die Soldaten und Kommandeure an der Front?”

    Ich fürchte das “Hauptproblem” wird nur für diejenigen Kriegführenden überhaupt ein Problem sein, die zivile Opfer nach Möglichkeit vermeiden wollen. Das mag Länder wie Russland oder den Iran und Organisationen wie die Hisbollah betreffen, aber die Nato und ihre Verbündeten wie Israel oder die Ukraine “glücklicherweise” nicht, da deren Kriegsführung ja sowieso schon auf die Vernichtung von Zivilisten, und gelegentlich auch ganzen Völkern, mit ausgelegt ist.

    Wenn Zucki weiter oben schreibt, dass ohne den Einsatz von KI die Zahl der Opfer durch israelisches Militär und Schutzstaffeln möglicherweise doppelt oder dreimal so hoch wäre, könnte er damit – auch wenn es natürlich spekulativ ist – leider Recht haben. Aber möglicherweise kann man die KI ja gegen Amalek nachprogrammieren.

    Die Frage nach der Verantwortlichkeit für KI-verursachte Kriegsverbrechen wird dagegen meiner Ansicht nach zumindest im Westblock genauso wenig eine Rolle spielen wie die nach der Verantwortlichkeit für menschenverursachte Kriegsverbrechen, nämlich so gut wie keine.

    Und wenn tatsächlich irgendwann einmal einem deutschen Programmierer Klein die Verursachung von Kriegsverbrechen nachgewiesen wird, dann wird man ihn wahrscheinlich zum Oberprogammierer befördern und mit besonders lukrativen neuen Aufträgen versehen und unser Staat wird eine symbolische Entschädigung von einem, zehn oder hundert Euro pro Opfer als großzügige Geste ohne Rechtsanspruch verkaufen.

    1. “Wenn Zucki weiter oben schreibt, dass ohne den Einsatz von KI die Zahl der Opfer durch israelisches Militär und Schutzstaffeln möglicherweise doppelt oder dreimal so hoch wäre, könnte er damit – auch wenn es natürlich spekulativ ist – leider Recht haben.”

      Abgerechnet wird immer erst am Ende des Tages!
      Der (Gaza-)Krieg ist ist noch nicht vorbei…und er wird weitere kriegerische Konflikte hervorrufen, die sich weiter ausbreiten.

      Maschinelles Töten wird sicher nicht zu weniger Toten führen, sondern nur zur endlosem und enthemmteren Töten. Die Schwelle zum Kriegführen wird sinken ob der vermeindlich ausbleibenden eigenen Verluste – aber das wird sich als infantiler Trugschluss herausstellen. Die GröFAZkes werden dem Wahn erliegen, keine “natürlichen” Grenzen im Eröffnen von parallelen Kriegsschauplätzen mehr zu kennen…

      Entgegen aller möglichen Spekulation, die schöngeredet nach temporären “Erfolgen” und angefeuert aus der Worthülsenfabrik sind, verweist die Realität eher in diese als in @Zuckis Richtung, besonders im Atomzeitalter…

      1. Ich denke worauf Zucki hinweisen wollte ist, dass wenn israelische Massenmörder im Vernichtungsfieber die Entscheidungen die an die KI ausgelagert worden sind selber gefällt und durchgeführt hätten, es möglicherweise noch viel mehr Tote gegeben hätte. Zucki hat immer wieder auf die beispiellosen Verbrechen des israelischen Naziregimes hingewiesen, nur ist er halt im Ausformulieren seiner Punkte manchmal – oder meistens – etwas ungeschickt. Ansonsten teile ich Deine Einschätzung.

    2. Die Antwort auf deine Überlegungen ist bereits im Text enthalten: “Aber die KI, die lernt und sich verbessert, dient auch zur Beseitigung von Minen oder zur Identifizierung von (russischen) Kriegsverbrechen ….”

      Sie dient natürlich nicht der Identifizierung von Kriegsverbrechen, sondern nur der Identifizierung von russischen Kriegsverbrechen. Die landen dann vor dem Internationalen NATO-Strafgerichtshof, der Rest fällt durchs Rost.

  7. Naja Krieg, gell, da gelten halt Regeln nicht mehr. Wer erwartet das autonome Waffensysteme Zivilisten verschonen oder nur darüber nachdenken, der ist so weltfremd, dass ihn oder sie oder es die erste Drohne erwischen wird. Bonustrack, man muss sich dann keine Sorgen mehr machen.

    Ehrlich, was soll das Geschwurbel in diesem Artikel. Die militärische Entscheidung ist klar, nicht einordenbar, vernichten. Was sonst?

    Krieg ist die Negation von Zivilisation. Jede Zivilisation die Krieg zulässt, sollte sich nicht über die Rechnung beklagen.

    Stattdessen könnte man über Mad Max Donnerkuppel nachdenken, da hiess es noch zwei gehen rein, einer kommt raus. Ich wäre für viele gehen rein, vielleicht kommt tatsächlich einer raus. Der bekommt dann Kriegsrente. Alle anderen mögen ihre Kriegsphantasien in einem kontrollierten begrenzten Gebiet austoben und die Zivilisation kann etwas dabei lernen. Alles andere ist Bullshit, Blutzoll und mehr als unnötig, falls wir uns wenigstens homo sapiens schimpfen wollen. An sapiensis, tja, da ist noch ein weiter Weg hin, als pan narrans, der Geschichten erzählende Affe.

    1. Sehr schön kommentiert.
      “der ist so weltfremd,”
      Ich frage mich auch warum überhaupt immer wieder rechtliche und moralische Fragen so ernsthaft diskutiert werden, als ob sie eine Rolle spielen würden.*
      Ob mit oder ohne KI, das interessiert doch nun wirklich keine Sau. Mal abgesehen von ein paar verpeilten Querdenkern oder Spinnern. Außenseitern halt, die nicht wie der “normale” Mensch nur in Kategorien von Sieg oder Niederlage denken können Dazwischen gibt es nichts für den Narrenaffen, außerhalb seiner Vorstellungswelt, pan narrans, muss ich mir merken…
      *Mal abgesehen von Anwälten und Juristen, die mit solchen Überlegungen Geld verdienen. Letztlich wird im Kapitalismus alles zur Ware, zum Markt, auch das Recht.

  8. Moin Herr Rötzer,
    bei solchen Themen sollte man sich m.E. immer überlegen, was man problematisieren will. Dass die KI Probleme bei der Freund-Feind Erkennung hat, mag ja stimmen. Aber für wen ist das Problem, und ist man selber zufrieden, wenn die KI besser funktioniert? Also gezielter tötet?

    Interessanter ist m.E. der Umstand, dass die mangelhafte Freund/Feind/Zivilistenerkennung keineswegs dazu führt, dass man solche Waffen erst verbessert bevor man sie einsetzt. Offenbar sind die Kollateralschäden eingepreist, und der Vorteil auf dem Schlachtfeld wichtiger.

    Man könnte auch mal ganz generell über den Sinn und Zweck von humanitärer Kriegsführung nachdenken, und inwiefern das nicht ein Widerspruch in sich ist. Das nur als Anregung für weitere Artikel zu dem Thema

  9. Endlich haben wir wieder einen Bereich, wo Fortschritte noch unmittelbar sichtbar sind. Hurra!!
    Schäden, die man im öffentlichen Verkehr nicht dulden dürfte, kann man im Feld als Kollateralschaden ignorieren.
    Das macht die Entwicklung leichter.

  10. Der Staat und sein MIK rationalisiert die Soldaten aus dem Krieg. Damit immunisiert er sich auch gegen Defätismus bei dieser sorte künftiger Statisten. Auf RT finde ich heute ein Video wie sich Drohnen gegenseitig in “Verkehrsunfälle” verwickeln als Form des Krieges. Wenn man dazu noch nicht mal einen Operator braucht, weil KI, was sollen dann Soldaten überhaupt noch machen in einem Krieg, wohl nur noch Fahnen aufstellen und Winken für Telegram-Videos, die werden für die zukünftige Militärtechnik zunehmend überflüssig, entscheidend für den Kriegsverlauf ist nur noch das Vermögen militärische Hochtechnologie auszuspucken. Es ist dann auch relativ egal was die Bevölkerung über einen Krieg denkt – weil sie dafür gar nicht mehr gebraucht wird.

  11. Der letzte Satz des Artikels endet mit
    “..überall auf der Welt alles möglichst in Echtzeit erkennen, verfolgen und angreifen zu können.”

    Ich vermute, daß dann überall auf der Welt Freiwillige und Ehrenamtliche losziehen werden und ALLES, was irgendwie nach KI aussieht, plattmachen werden. Denn wenn alles mögliche angegriffen werden kann, werden sich alle möglichen Leute bedroht fühlen dürfen. Also auch durch eingebaute KI in Autos, Mährobotern, TV-Geräten, usw,
    Wir nähern uns mit großen Schritten dem posttechnologischen Zeitalter. Mit sehr großen Schritten.

    Und womöglich geht es irgendwann auch gegen die Entwickler und Erbauer von KI. Nicht etwa gegen die Besitzer der KI, die ja den Auftrag geben, was den KI einprogrammiert und befohlen wird…

  12. Erstaunlich ist ja wie die Ideen von den Landsern im Schützengraben entstanden. Sowohl die Drohne als fliegendes Auge oder gemeines Fallobst. Genauso schnell bauten Landser Tarnzelte und Drahtkäfige auf die Panzer und Gräben der Verteidigungsanlagen. Mobile Funkstörung sind notwendige Begleiter bei Vorstößen. Telefoniert wird wieder über verdrilltes Kabel. Leo und Co mit Artillerie-Einschlag von oben vernichtet. Das gibt es noch in keinen Lehrfilm.
    Bei der erlaubten Kreativität macht man bei der NATO dicke Backen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert