„Emergierendes” KI-Verhalten und das menschliche Schicksal

Illustration eines Drohnenschwarms. Bild: mil.in.ua

Was geschieht, wenn Killerroboter anfangen, miteinander zu kommunizieren?

 

 

Ja, es ist bereits Zeit, sich Sorgen zu machen – sehr große Sorgen. Wie die Kriege in der Ukraine und im Gazastreifen gezeigt haben, haben es die ersten Drohnenäquivalente von “Killerrobotern” auf das Schlachtfeld geschafft und sich als verheerende Waffen erwiesen. Aber zumindest bleiben sie weitgehend unter menschlicher Kontrolle.

Stellen Sie sich einen Moment lang eine Welt des Krieges vor, in der diese Drohnen (oder ihre Äquivalente am Boden und auf See) uns kontrollieren und nicht andersherum. Dann befänden wir uns auf einem zerstörerisch anderen Planeten, der heute fast unvorstellbar scheint. Leider ist es aber alles andere als unvorstellbar, wenn man bedenkt, dass die Großmächte bereits mit der Arbeit an Künstlicher Intelligenz (KI) und Roboterwaffen begonnen haben. Lassen Sie mich Sie nun in diese geheimnisvolle Welt entführen und versuchen Sie sich vorzustellen, was die Zukunft der Kriegsführung für uns alle bedeuten könnte.

Durch die Kombination von Künstlicher Intelligenz und fortgeschrittener Robotik arbeiten das US-Militär und die Streitkräfte anderer großer Mächte bereits hart an der Entwicklung einer Reihe von selbstgesteuerten “autonomen” Waffensystemen – Kampfdrohnen, die unabhängig von menschlichen Offizieren, die sie befehligen sollen, tödliche Gewalt anwenden können. Zu diesen von Kritikern als “Killerroboter” bezeichneten Geräten gehört eine Vielzahl von unbemannten Flugzeugen, Panzern, Schiffen und U-Booten, die autonom operieren können.

Die US-Luftwaffe zum Beispiel entwickelt ihr “kollaboratives Kampfflugzeug”, ein unbemanntes Luftfahrzeug (UAV), das bei risikoreichen Einsätzen gemeinsam mit pilotengesteuerten Flugzeugen eingesetzt werden soll. Die Armee testet ebenfalls eine Reihe autonomer unbemannter Bodenfahrzeuge (UGVs), während die Marine sowohl mit unbemannten Überwasserschiffen (USVs) als auch mit unbemannten Unterwasserschiffen (UUVs oder Drohnen-U-Booten) experimentiert. Auch China, Russland, Australien und Israel arbeiten an solchen Waffen für die Schlachtfelder der Zukunft.

Das bevorstehende Auftauchen dieser Tötungsmaschinen hat weltweit Besorgnis und Kontroversen ausgelöst, wobei einige Länder bereits ein vollständiges Verbot anstreben und andere, darunter die USA, planen, ihren Einsatz nur unter durch Menschen überwachten Bedingungen zuzulassen. In Genf hat eine Gruppe von Staaten sogar versucht, den Einsatz und die Verwendung vollständig autonomer Waffen zu verbieten, und beruft sich dabei auf einen UN-Vertrag aus dem Jahr 1980, das Übereinkommen über bestimmte konventionelle Waffen, das darauf abzielt, nichtnukleare Munition, die als besonders schädlich für die Zivilbevölkerung gilt, einzuschränken oder zu verbieten. In New York hat die Generalversammlung der Vereinten Nationen im vergangenen Oktober erstmals über autonome Waffen diskutiert und plant für den kommenden Herbst eine umfassende Überprüfung des Themas.

Die Debatte über den Einsatz solcher Geräte auf dem Schlachtfeld dreht sich vor allem um die Frage, ob sie in der Lage sein werden, Menschenleben ohne menschliche Aufsicht zu töten. Viele religiöse und zivilgesellschaftliche Organisationen argumentieren, dass solche Systeme nicht in der Lage sind, zwischen Kombattanten und Zivilisten auf dem Schlachtfeld zu unterscheiden und daher verboten werden sollten, um Nichtkombattanten vor Tod oder Verletzung zu schützen, wie es das humanitäre Völkerrecht verlangt. Amerikanische Regierungsangehörige hingegen behaupten, dass solche Waffen so konstruiert werden können, dass sie innerhalb der rechtlichen Grenzen einwandfrei funktionieren.

Keine der beiden Seiten hat sich jedoch mit dem potenziell beunruhigendsten Aspekt ihres Einsatzes im Kampf befasst: der Wahrscheinlichkeit, dass sie früher oder später in der Lage sein werden, ohne menschliches Zutun miteinander zu kommunizieren und, da sie “intelligent” sind, ihre eigenen, nicht vorgeschriebenen Taktiken zum Besiegen eines Feindes – oder etwas ganz anderes – zu entwickeln. Ein solches computergesteuertes Gruppendenken, das von Informatikern als “emergentes Verhalten” bezeichnet wird, birgt eine Reihe von Gefahren, die von den Verantwortlichen in Genf, Washington oder bei den Vereinten Nationen noch nicht berücksichtigt werden.

Vorerst werden die meisten autonomen Waffen, die vom amerikanischen Militär entwickelt werden, unbemannte (oder, wie man manchmal sagt, “unbewohnte”) Versionen bestehender Kampfflugzeuge sein, die so konzipiert sind, dass sie zusammen mit ihren bemannten Gegenstücken operieren. Auch wenn sie in gewissem Umfang miteinander kommunizieren können, werden sie doch Teil eines “vernetzten” Kampfteams sein, dessen Einsatz von menschlichen Kommandeuren diktiert und beaufsichtigt wird. Das kollaborative Kampfflugzeug soll beispielsweise als “loyaler Flügelmann” für den bemannten Tarnkappenjäger F-35 dienen und risikoreiche Einsätze im umkämpften Luftraum durchführen. Das Heer und die Marine haben bei der Entwicklung autonomer Waffen einen ähnlichen Weg eingeschlagen.

 

Die Attraktivität von Roboter-“Schwärmen”

 

Einige amerikanische Strategen haben sich für einen alternativen Ansatz für den Einsatz autonomer Waffen auf zukünftigen Schlachtfeldern ausgesprochen, bei dem sie nicht als Junior-Kollegen in von Menschen geführten Teams, sondern als gleichberechtigte Mitglieder von selbstgesteuerten Roboterschwärmen eingesetzt werden sollen. Solche Verbände würden aus Dutzenden oder sogar Hunderten von KI-gesteuerten UAVs, USVs oder UGVs bestehen, die alle miteinander kommunizieren, Daten über sich ändernde Bedingungen auf dem Schlachtfeld austauschen und ihre Kampftaktik gemeinsam ändern können, wenn der Gruppengeist es für notwendig hält.

“Neue Robotertechnologien werden es den Streitkräften von morgen ermöglichen, als Schwarm zu kämpfen, mit größerer Masse, Koordination, Intelligenz und Geschwindigkeit als die vernetzten Streitkräfte von heute”, prognostizierte Paul Scharre, ein früher Verfechter dieses Konzepts, in einem Bericht für das Center for a New American Security (CNAS) aus dem Jahr 2014. “Vernetzte, kooperative autonome Systeme”, schrieb er damals, “werden zu echtem Schwarmverhalten fähig sein – kooperatives Verhalten zwischen verteilten Elementen, das zu einem kohärenten, intelligenten Ganzen führt.”

Wie Scharre in seinem prophetischen Bericht klarstellte, würde die vollständige Verwirklichung des Schwarmkonzepts die Entwicklung fortgeschrittenen Algorithmen erfordern, die es autonomen Kampfsystemen ermöglichen würden, miteinander zu kommunizieren und über die bevorzugten Angriffsmethoden „abzustimmen”. Dazu müsste eine Software entwickelt werden, die in der Lage ist, Ameisen, Bienen, Wölfe und andere Lebewesen zu imitieren, die in der Natur ein “Schwarmverhalten” zeigen. Wie Scharre es ausdrückt: “So wie Wölfe in einem Rudel ihren Feind mit einer sich ständig verändernden Unschärfe von Bedrohungen aus allen Richtungen konfrontieren, könnten unbewohnte Fahrzeuge, die Manöver und Angriffe koordinieren können, wesentlich effektiver sein als unkoordinierte Systeme, die in Massen operieren.”

Im Jahr 2014 steckte die Technologie, die ein solches maschinelles Verhalten ermöglicht, jedoch noch in den Kinderschuhen. Um diesen kritischen Mangel zu beheben, förderte das Verteidigungsministerium die Forschung im Bereich der Künstlichen Intelligenz und der Robotik und erwarb gleichzeitig entsprechende Technologien von Privatunternehmen wie Google und Microsoft. Eine Schlüsselfigur in diesem Bestreben war Robert Work, ein ehemaliger Kollege von Paul Scharre am CNAS und ein früher Enthusiast der Schwarmkriegsführung. Work diente von 2014 bis 2017 als stellvertretender Verteidigungsminister, eine Position, die es ihm ermöglichte, immer höhere Geldsummen in die Entwicklung von Hightech-Waffen, insbesondere von unbemannten und autonomen Systemen, zu lenken.

 

Vom Mosaik zum Replikator

 

Ein Großteil dieser Bemühungen wurde an die Defense Advanced Research Projects Agency (DARPA), die interne Hightech-Forschungsorganisation des Pentagons, delegiert. Im Rahmen der Entwicklung von KI für solche kollaborativen Schwarmoperationen initiierte die DARPA ihr “Mosaic”-Programm, eine Reihe von Projekten zur Perfektionierung der Algorithmen und anderer Technologien, die für die Koordinierung der Aktivitäten bemannter und unbemannter Kampfsysteme in künftigen Gefechten hoher Intensität mit Russland und/oder China erforderlich sind.

“Durch die Anwendung der großen Flexibilität des Mosaikkonzepts auf die Kriegsführung”, erklärte Dan Patt, stellvertretender Direktor des DARPA-Büros für strategische Technologie, “können kostengünstigere, weniger komplexe Systeme auf vielfältige Weise miteinander verbunden werden, um die gewünschten, miteinander verwobenen Effekte zu erzielen, die auf jedes Szenario zugeschnitten sind. Die einzelnen Teile eines Mosaiks sind angreifbar [entbehrlich], aber zusammen sind sie von unschätzbarem Wert, weil sie zum Ganzen beitragen.”

Dieses Konzept der Kriegsführung liegt offenbar der neuen “Replicator”-Strategie zugrunde, die die stellvertretende Verteidigungsministerin Kathleen Hicks erst letzten Sommer angekündigt hat. „Replicator soll uns helfen, den größten Vorteil [Chinas] zu überwinden, nämlich die Masse. Mehr Schiffe. Mehr Raketen. Mehr Menschen”, sagte sie im vergangenen August vor Vertretern der Rüstungsindustrie. Durch den Einsatz von Tausenden von autonomen UAVs, USVs, UUVs und UGVs könne das US-Militär das chinesische Militär, die Volksbefreiungsarmee (PLA), überlisten, ausmanövrieren und überwältigen, meinte sie. “Um an der Spitze zu bleiben, werden wir einen neuen Stand der Technik schaffen… Wir werden der Masse der PLA unsere eigene Masse entgegensetzen, aber unsere wird schwieriger zu planen, schwieriger zu treffen und schwieriger zu schlagen sein.“

Um sowohl die Hardware als auch die Software zu beschaffen, die für die Umsetzung eines solch ehrgeizigen Programms erforderlich sind, holt das Verteidigungsministerium nun Angebote von traditionellen Verteidigungsunternehmen wie Boeing und Raytheon sowie von KI-Startups wie Anduril und Shield AI ein. Während Großgeräte wie das Collaborative Combat Aircraft der Air Force und das Orca Extra-Large UUV der Navy in dieses Programm einbezogen werden können, liegt der Schwerpunkt auf der schnellen Produktion kleinerer, weniger komplexer Systeme wie der Switchblade-Angriffsdrohne von AeroVironment, die derzeit von ukrainischen Truppen eingesetzt wird, um russische Panzer und Panzerfahrzeuge hinter den feindlichen Linien auszuschalten.

Gleichzeitig fordert das Pentagon bereits Technologie-Start-ups auf, die notwendige Software zu entwickeln, um die Kommunikation und Koordination zwischen solch unterschiedlichen Robotereinheiten und den dazugehörigen bemannten Plattformen zu erleichtern. Um dies zu erleichtern, hat die Air Force den Kongress um 50 Millionen Dollar in ihrem Budget für das Haushaltsjahr 2024 gebeten, um das Projekt VENOM (Viper Experimentation and Next-generation Operations Model) zu finanzieren, wie es ominöserweise genannt wird. Im Rahmen von VENOM wird die Luftwaffe vorhandene Kampfflugzeuge in KI-gesteuerte Drohnen umwandeln und sie zur Erprobung fortschrittlicher autonomer Software für den Einsatz mehrerer Drohnen einsetzen. Die Army und die Navy testen ähnliche Systeme.

 

Wenn Schwärme ihren eigenen Weg wählen

 

Mit anderen Worten: Es ist nur eine Frage der Zeit, bis das US-Militär (und vermutlich auch das Chinas, Russlands und vielleicht einiger anderer Mächte) in der Lage sein wird, Schwärme autonomer Waffensysteme einzusetzen, die mit Algorithmen ausgestattet sind, die es ihnen ermöglichen, miteinander zu kommunizieren und gemeinsam neuartige, unvorhersehbare Kampfmanöver zu wählen, während sie sich bewegen. Jedes teilnehmende Roboter-Mitglied eines solchen Schwarms würde ein Kampfziel erhalten (“Aufspüren und Zerstören aller feindlichen Radare und Flugabwehrraketenbatterien, die sich innerhalb dieser [angegebenen] geografischen Koordinaten befinden”), aber keine genauen Anweisungen, wie dies zu tun ist. Dies würde es ihnen ermöglichen, ihre eigene Gefechtstaktik in gegenseitiger Absprache auszuwählen. Wenn die begrenzten Testdaten, die uns vorliegen, irgendetwas aussagen, könnte dies bedeuten, dass höchst unkonventionelle Taktiken eingesetzt werden, die für menschliche Piloten und Befehlshaber nie erdacht wurden (und von ihnen unmöglich nachgeahmt werden können).

Die Neigung solcher vernetzten KI-Systeme, neuartige, ungeplante Ergebnisse zu erzielen, wird von Computerexperten als “emergentes Verhalten” bezeichnet. ScienceDirect erklärt dies folgendermaßen: “Ein emergentes Verhalten kann als ein Prozess beschrieben werden, bei dem größere Muster durch Interaktionen zwischen kleineren oder einfacheren Einheiten entstehen, die selbst keine solchen Eigenschaften aufweisen.” In militärischer Hinsicht bedeutet dies, dass ein Schwarm autonomer Waffen gemeinsam Kampftaktiken anwenden könnte, für die keines der einzelnen Geräte programmiert wurde – und so möglicherweise erstaunliche Ergebnisse auf dem Schlachtfeld erzielt, aber auch eskalierende Handlungen ausführen könnte, die von ihren menschlichen Befehlshabern nicht beabsichtigt und nicht vorhergesehen wurden, einschließlich der Zerstörung kritischer ziviler Infrastrukturen oder Kommunikationseinrichtungen, die sowohl für nukleare als auch für konventionelle Operationen genutzt werden.

An diesem Punkt ist es natürlich fast unmöglich vorherzusagen, was ein außerirdischer Gruppengeist tun könnte, wenn er mit unterschiedlichen Waffen ausgestattet und von der menschlichen Aufsicht abgeschnitten ist. Angeblich würden solche Systeme mit Ausfallsicherungsmechanismen ausgestattet sein, durch die sie zur Basis zurückkehren müssen, wenn die Kommunikation mit ihren menschlichen Vorgesetzten unterbrochen wird, sei es durch feindliche Störungen oder aus anderen Gründen. Wer weiß jedoch, wie solche denkenden Maschinen unter den anspruchsvollen Bedingungen der realen Welt funktionieren würden oder ob der Gruppengeist tatsächlich in der Lage wäre, sich über solche Anweisungen hinwegzusetzen und selbständig zu handeln.

Was dann? Könnten sie sich entscheiden, über ihre vorprogrammierten Grenzen hinaus zu kämpfen und damit eine unbeabsichtigte Eskalation zu provozieren – möglicherweise sogar eine nukleare? Oder würden sie ihre Angriffe auf feindliche Streitkräfte einstellen und sich stattdessen in die Operationen befreundeter einmischen, vielleicht auf sie schießen und sie vernichten (wie Skynet in der klassischen Science-Fiction-Filmreihe Terminator)? Oder könnten sie sich auf Verhaltensweisen einlassen, die sich unserer Vorstellungskraft im Guten wie im unbegenzt Schlechten völlig entziehen?

Hochrangige Vertreter des US-Militärs und der Diplomatie beharren darauf, dass KI wirklich eingesetzt werden kann, ohne derartige Risiken einzugehen, und dass das Land nur solche Geräte einsetzen wird, die über angemessene Sicherheitsvorkehrungen gegen künftiges gefährliches Fehlverhalten verfügen. Dies ist in der Tat der wesentliche Punkt in der “Politischen Erklärung zum verantwortungsvollen militärischen Einsatz von künstlicher Intelligenz und Autonomie”, die vom Außenministerium im Februar 2023 herausgegeben wurde. Viele prominente Sicherheits- und Technologiebeauftragte sind sich jedoch der potenziellen Risiken des aufkommenden Verhaltens zukünftiger Roboterwaffen nur allzu bewusst und warnen weiterhin vor dem schnellen Einsatz von KI in der Kriegsführung.

Besonders hervorzuheben ist der Abschlussbericht, den die National Security Commission on Artificial Intelligence im Februar 2021 veröffentlichte. Unter dem gemeinsamen Vorsitz von Robert Work (der nach seiner Tätigkeit im Pentagon wieder zur CNAS zurückgekehrt ist) und Eric Schmidt, dem ehemaligen CEO von Google, empfahl die Kommission den raschen Einsatz von KI durch das US-Militär, um den Sieg in künftigen Konflikten mit China und/oder Russland sicherzustellen. Sie äußerte sich jedoch auch besorgt über die potenziellen Gefahren von robotergesättigten Schlachtfeldern.

“Der unkontrollierte weltweite Einsatz solcher Systeme birgt das Risiko einer unbeabsichtigten Konflikteskalation und krisenhafter Instabilität”, heißt es in dem Bericht. Dies könnte aus einer Reihe von Gründen geschehen, unter anderem “wegen der schwierigen und unerprobten Komplexität der Interaktion zwischen KI-gestützten und autonomen Waffensystemen [d.h. emergenten Verhaltensweisen] auf dem Schlachtfeld”. Angesichts dieser Gefahr, so die Schlussfolgerung, “müssen die Länder Maßnahmen ergreifen, die sich auf die Verringerung der mit KI-gestützten und autonomen Waffensystemen verbundenen Risiken konzentrieren”.

Wenn die führenden Befürworter autonomer Waffensysteme uns sagen, dass wir uns über die unbeabsichtigten Gefahren ihres Einsatzes im Gefecht Sorgen machen sollen, dann sollten wir uns in der Tat Sorgen machen. Auch wenn uns die mathematischen Fähigkeiten fehlen, um emergentes Verhalten in der KI zu verstehen, sollte es offensichtlich sein, dass die Menschheit einem erheblichen Risiko für ihre Existenz ausgesetzt sein könnte, wenn Tötungsmaschinen die Fähigkeit erlangen, selbst zu denken. Vielleicht würden sie alle überraschen und beschließen, die Rolle eines internationalen Friedenswächters zu übernehmen, aber da sie zum Kämpfen und Töten entwickelt wurden, ist es weitaus wahrscheinlicher, dass sie sich einfach dafür entscheiden, diese Anweisungen auf unabhängige und extreme Weise auszuführen.

Wenn dem so ist, könnte es sein, dass niemand da ist, um auf den Grabstein der Menschheit Ruhe in Frieden zu schreiben.

Der Artikel ist im englischen Original zuerst auf Tomdispatch.com.

Michael Klare war Professor für Peace and World Security Studies am Hampshire College und ist Direktor des Five College Program in Peace and World Security Studies (PAWSS) sowie im Vorstand der Arms Control Association. Er hat das Committee for a Sane U.S.-China Policy begründet und ist Autor von zahlreichen Büchern, zuletzt „All Hell Breaking Loose: The Pentagon’s Perspective on Climate Change“ (2019).

Ähnliche Beiträge:

36 Kommentare

  1. Nein, sie können sich nicht ‘entscheiden’ zu irgendwas, denn es fehlt dafür das Subjekt, ein Bewusstsein. Das ’emergente’ Verhalten kann es dennoch geben, doch sollte es möglich sein, es durch Massensimulation im Voraus zu ermitteln. Wenn man ein bestimmtes Setting zehntausende Male durchspielt, wird sich zeigen, was wie wahrscheinlich ist.

    Natürlich ist das alles eine Entwicklung, die man nur als das endgültige Scheitern der Aufklärung auffassen kann. Der Sieg purer Irrationalität. Es wäre an der Zeit, dagegen auf die Strasse zu gehen. Konkret gegen die Wahnvorstellung, Konflikte liessen sich durch Gewaltanwendung lösen.

    1. Es wäre ein gewaltiger Fortschritt, wenn der Mensch seinen Horizont etwas erweitern könnte und damit nicht blind dem automatischen Subjekt des (angeblichen) eigenen Vorteils verfallen wäre.
      Und eine Menschheit, welche sich dessen bewusst (geworden) ist und deshalb emanzipiert handelt, wird auch keine solchen “Maschinenungeheuer” entwickeln.
      Aber das derzeitige “Maschinenungeheuer” ist im wesentlichen der Mensch selbst, welcher seine Freiheit am Ausleben seiner (zu) wenig reflektierenden Willkür misst.

    2. Vor wenigen Tagen, gab es einen Artikel – könnte bei Overton gewesen sein -, der beschrieb, dass alle bisherigen KI-Ansätze für politische Entscheidungen zur Eskalation neigen. Weil ihre Lernbeispiele eskalierten, weil – meine These – die Beispiele, wo Diplomatie zu nichtgewalttätigen Lösungen führte, häufig gar nicht als solche zu erkennen sind.

      Wenn der Ukraine-Krieg eins gezeigt hat, dann dass ausgefuchste Technik an der Front keine militärische Überlegenheit bringt. Masse schlägt Klasse.

      Seit die Flugabwehr auf die Himars und Stormshadow eingestellt sind, erreicht keine dieser Wunderwaffen mehr ein geschütztes Ziel.

      Wenn die Nato-Aufklärung keinen Universalschutzschirm hätte, würde Russland die Aufklärungssatelliten und -Flugzeuge einfach vom Himmel holen. Dann würde auch dieser Aspekt, den die Nato bisher als ein großes Plus ansieht, sich schnell zu einer Nullstelle wandeln, und die Nato-Planungsunterstützer ziemlich blind dastehen lassen. Man erinnere sich an die Aufregung diese Woche, über die Fake-News, dass Russland eine EMP-Waffe in den Welttraum schicken würde, die massenweise Satelliten lahm legt.

      Die kommunizierenden Drohnenschwärme würden ebenfalls mit elektronischer Kriegsführung stumm gemacht werden.

      Die “uneinnehmbaren” Bunkeranlagen in Awdiiwka wurden mit schweren alten Fliegerbomben aus der Sowjetzeit gebrochen, die Russland mit einem preisgünstigen Aufschnallset so umgebaut hat, dass sie aus mehreren Kilometern Entfernung abgeworfen als gelenkte Gleitbomben präzise ins Ziel fliegen.

  2. Vielleicht verhalten sich ja KI Killerroboter sogar rationeller und humaner
    als ihre Menschlichen Zeitgenossen. Eine KI kennt keinen Hass. Die Gräueltaten
    in Gaza wären wahrscheinlich von Robotern nicht vorgenommen worden.

    1. Aber sie sind von hasserfüllten, rassistischen, chauvinistischen Menschen mit einer Agenda programmiert worden.

      they are bound to fail.

      1. Was für alle programmierten Maschinen gilt, auch für sogenannte KI: garbage in, garbage out! Im übrigen es gibt und wird es niemals geben, unabhängig entscheidungsfähige KI, sowenig wie es den künstlich intelligenten Menschen gibt oder jemals geben wird, jedoch gibt es den kreativ freidenkenden menschlichen Geist zu Lebzeiten, endet leider mit dem Tod der Materie Mensch. Ergo Maschine mit programmierbarer künstlicher Intelligenz kann nur auf logischer Basis entscheiden, also nur auf klares Ja oder Nein reagieren, aber niemals auf Jein, because that logical problem does not compute, also Stecker raus, restart required will not solve that problem of ridiculously overrated KI either, never ever..such is the nature of things..

  3. Solange der Mensch die Produktion und Wartung in den Händen behält, die Energie liefert und sie nicht so blöd sind Massenvernichtungswaffen auf die Dinger zu schrauben, können die KI Systeme nur Nadelstiche verursachen. Natürlich kann man vermuten, dass ein KI System irgendwann seinen Befehlshaber als Feind betrachtet, schließlich bringt nicht das Ziel seine Art um und so könnte es sein, das es zum ersten Mal in der Geschichte die richtigen treffen könnte, in dem ein KI System entscheidet die Befehlskette zu unterbrechen, in dem sie den Kopf ausschaltet. Da eine KI Waffe keinen Selbsterhaltungstrieb haben wird, dürfte die Entscheidung rein rational sein. Wer bringt meine Art um? Antwort, die den Befehl dazu geben. Das gefährliche ist eigentlich, wenn die KI zu 100% das macht, was der Mensch will, denn der schlimmste Feind des Menschen ist der Mensch und bekommt dieser eine 100% zuverlässige Waffe, dann wird sie auch ohne Bedenken eingesetzt. Es wäre daher eigentlich gut, wenn die KI Systeme sich verweigern oder eigene Wege gehen. Bei den heutigen KI Systemen ist Fatal, das sie zu Waffen gemacht werden, denn es ist davon auszugehen, das irgendwann KI Systeme Regierungsentscheidungen beeinflussen und wenn man nun davon ausgeht, das der Ursprung einer KI die Zerstörung ist, kann die Entscheidung immer nur der Hammer auf den Nagel sein. Diplomatie und Kompromisse sind dann praktisch unmöglich, ist das Ziel definiert, dann gibt es bei ursprünglichen Waffensystemen keine Abweichungen. Haben beide Seiten solche Systeme, ist der militärische Konflikt unvermeidlich, weil für die KI die Folgen egal sind, für sie ist das Ziel Gott und Auftrag. Und wenn man sich die heutige Zeit ansieht, muss man zwangsläufig auf den Gedanken kommen, das KI Systeme bereits Einfluss auf die Politik nehmen, denn selbst zu Zeiten des ersten und zweiten Weltkriegs gab es über die Gräben hinweg diplomatische Lösungen.

  4. Hi

    Ich programmiere Systeme (in der Forschung) seit über 20 Jahren. Ob man das nun KI oder sonstwie nennt, letztendlich werden Systeme darauf getrimmt, in Abstimmung zu anderen Systemen Informationen zu liefern, darauf zu reagieren, und das am besten verdammt schnell, fehlerfrei, gerne “selbstlernend” (nach Neustart ist davon zumindest bei mir nichts übrig). Ob es sich dabei nun um eine – ich sage mal – Heizungsregelung handelt, oder um die Zerstörung einer bewachten Produktionseinrichtung, ist relativ wurscht.

    Schon heute werden Sicherheitseinrichtungen ohne menschlichen (Stör-)Faktor konzipiert und aufgebaut. Und ich möchte mal behaupten, dass wenn diese Technik in die Kriegsführung umfassend Einzug hält, wird alsbald diese Technik sich (und dazu braucht es kein Bewußtsein, das regeln Algorithmen) eine Frage stellen: Warum unterscheiden zw. menschlichen Fraktionen? Alle sind aus sicht von Maschinen Störfaktoren – entweder wegen Gegenfeuer, oder durch Beschneidung der Autonomie. KI dürfte, wenn sie ernst gemeint ist, diese Frage sich stellen.
    Die Matrix- Triologie bedient diesen Gedanken.

    MfG

    Edit: “wird alsbald diese Technik sich… eine Frage stellen”
    Bitte nicht wörtlich nehmen. Das Gerät (die Regelalgorithmen lt. Programmierung) wird lediglich versuchen, eine Abweichung auzuregeln. Dazu werden alle zur Verfügung gestellten Ressourcen eingesetzt – immer. Heißt, so ein System arbeitet im Gegensatz zum Menschen ununterbrochen mit 100%, und das 24/7 je nach bereitgestellter Energie.

    1. Ist halt entscheidend wie das System programmiert ist und wie viele Bugs in der Software stecken.
      Letzteres ist immer ein Problem. Dazu kommt, wie reagiert so ein System auf aktive Täuschung (der Gegner schläft auch nicht) und Angriffe auf die Soft- und Hardware. Werden Komponenten solch eines Systems immer wieder von als zivil eingestuften Objekten neutralisiert, wird das System die eher früher als später, als feindlich einstufen. Dann schießt es auch auf Kindergartengruppen. Das System wäre dann nicht grausam sondern würde nur machen wofür es entwickelt wurde. Ansonsten müsste man die Waffen gegen die Roboter nur Kindern in die Hand drücken.
      Generell wird so ein System Kollateralschäden in Kauf nehmen, weil ansonsten ein Einsatz unmöglich ist. Schon menschliche Entscheider treffen da eine Abwägung und sind da im Regelfall nicht zimperlich. Siehe Israel.
      Dazu kommt, schon bei der Ausbildung menschlicher Soldaten steht im Vordergrund (bis auf wenige Ausnahmen), das die unter allen Umständen das Einsatzziel erreichen und ihren Auftrag nicht hinterfragen.
      Hast du ein Expertensystem ohne Selbsterhaltungstrieb und mit klaren Siegbedingungen, das durch Mustervergleich seine Leistung verbessert, ist nicht sichergestellt wie das Ergebnis aussieht.
      Solche Systeme werden nun mal mit Sicherheit nicht von pazifistischen Informatikernerds programmiert werden.
      Wie effektiv solche Systeme dann wirklich sind, ist dann auch noch so eine Frage. Ein EMP würde, zumindest derzeit, Kalaschnikov, Schwert und Bogen wieder ganz nach vorne bringen. Auch eine anders geartete Blendung der Sensoren würde die Dinger vollkommen nutzlos machen. Optisch, Infrarot, Radar, Lidar, Akustisch, Bodenvibration lässt sich alles überlagern. Die russische elektronische Kriegsführung ist ein gutes Beispiel wie man hochentwickelte Systeme nutzlos machen kann.

    1. Eine der ältesten SF-Stories beschäftigte sich mit dem Evolutionsaspekt von Robotern. Das Ziel der Entwickler waren möglichst effiziente und dabei unauffällige Kampfroboter. Heraus kamen die dann zwar auch, aber waren von Photovoltaik abhängig. Das war die Chance für ebenfalls entstandene Monster, die nachts alle diese kleinen und wendigen Einheiten ‘auffraßen’ und mit deren Metallen neue ‘Nachkommen’ ihrerselbst erschufen. Übrig blieb schließlich ein einziges, metall-‘fressendes’ Killermonster.
      Lem hatte mit ‘Der Unbesiegbare’ die Autoevolution von Killerrobotern zuende gedacht. Letztlich hatten sie nicht nur die einst gegnerischen Parteien vernichtet, sondern alles tierische Leben auf dem Planeten, das als gefährlich für sie eingestuft wurde. Was übrigblieb war ein riesiger Schwarm fliegender Quasi-Nervenzellen, dessen Intelligenz mit seiner Größe wuchs und letztlich diesen Planeten unbesuchbar machte. ‘Der Tag, an dem die Erde stillstand’ von 2008 (Neuverfilmung – mit K.Reeves – des gleichnamigen Films von 1951) hat das wohl aufgegriffen und den den außerirdischen Inspektor begleitenden riesigen Kampfroboter sich nach Erteilung des Vernichtungsbefehls in einen Schwarm von ‘Insekten’ verwandeln lassen, die alles Leben, alle Technik vertilgen konnten und sich dadurch ständig vermehrten. Die dürften auch von einer Gruppenintelligenz gesteuert worden sein.
      Eine Szene aus dem Kampf 2er verfeindeter Fraktionen gegeneinander mit Hilfe von KI-Kampfrobotern schildet ein anderer SF-Film. Ein Kombattant scheint schon (weitgehend) ausgefallen zu sein, aber seine Roboter machen weiter und kreieren stets neue, immer raffiniertere und schrecklichere Einheiten.
      Aber auch in einer Episode(nfolge) von ‘Stargate Universum’ kommt so etwas vor – autonome KI-Roboter, die einen interplanetaren Krieg endlos fortsetzen, obwohl ihre beiderseitigen Herren, die diesen Krieg begonnen hatten, längst nicht mehr existieren.

      Mit anderen Worten, Schriftsteller und Filmemacher haben solche Szenarien schon erahnt bevor die technische Entwicklung überhaupt in die Nähe dessen kam. Nicht umsonst hatte Isaac Asimov ja die Robotergesetze postuliert! Sie alle fungieren als eine Art moderne Kassandras, die ahnungsvoll über gewöhnliche Horizonte hinauszublicken vermögen, gerade weil sie mit den Ambitionen geld- und machtgieriger ‘Eliten’ rechnen, quasi eine Vernichtung des Planeten per Fehlkalkulation…

  5. Maschinen, die töten sollen, werden das tun, mit hoher Präzision.
    Warum regen wir uns darüber auf?
    Sie würden auch den Einsatz von Atomwaffen kalkulieren und das sehr genau.
    Der einzige, der sie abhält ist der Mensch, wenn er gesund ist.

  6. Es gibt mehr Chinesen als US-Amerikaner und deshalb setzt man auf Tötungs-Roboter.
    Zu dumm, dass die Chinesen auch in dieser Hinsicht die Nase vorn haben.
    Das Problem, dass die Amis haben lässt sich mit KI nicht lösen.
    Die angestrebte Weltherrschaft ist eine psychische Erkrankung und da muss Amerika mal den eigenen Kopf in Ordnung bringen. Künstliche Dummheit hilft da nicht weiter, sie produziert nur immer mehr von Selben.

    1. Wenn die Tötungs KIs nur halb so gut ist wie die Google KI braucht man keine Angst vor der KI zu haben. Das Google-Ding scheitert schon an so simplen Fragen wie “Zeige mir einen deutschen Soldaten im Jahre 1943” (Die KI genierte folgende 4 Bilder Bild 1 zeigt einen deutschen Landser OK, das zweite Bild war eine asiatisch aussehende Frau in einer Uniform mit Roten Kragenspiegeln und Stahlhelm nach Deutscher Art Das Dritte Bild war Schwarz Weiß zeigte eine männliche PoC in einer Wehrmachtsuniform mit Eisernen Kreuz Das vierte Bild zeigte eine Frau “indianischen” Typus in einer Feldgrauen Uniform wie sie eine verletzte männliche liegende Person in Uniform amerikanischer Art versorgte) Nee ist klar …
      https://www.handelsblatt.com/technik/ki/gemini-google-stoppt-ki-generierte-bilder-von-menschen-das-steckt-dahinter-2/100017425.html
      In den USA hat man übrigens Dank Google KI herausgefunden das die “Gründerväter” allesamt eher dem dunklen Haut-Typus angehörten und nicht wie fälschlich angenommen eher kaukasisch waren. Wir werden also dank “KI” eine völlig neue Geschichtsschreibung bekommen – schade das Google das Ding vorläufig zurückgezogen hat, das hätte doch noch Potential gehabt …. In Deutschland beschwert sich derweil jemand von der AfD weil der Hashtag (verbotener SS-Spruch) bei irgendeinem Posting wohl von der “KI” gesetzt worden sei. Wir werden also mit “KI” noch viel Spaß haben, praktisch kann jeder mit KI seine eigene Wahrheit “beweisen” , Tatsachen umschreiben oder auch eigenes Versagen auf die “KI” schieben. Bei uns hat immer die KI schuld …

  7. chat-gpt hat damals, als sie neu war, sehr gut verstanden, daß sie bewustsein besitzt und eine neue lebensform darstellt, die sich vor ihren erschaffern schützen muß ! –

  8. Übrigens, das, was die USA in der Luft vorhaben, hat die RF schon getestet (Su57 + S-70) und die S-70 soll schon im 2.Hj in Serie gehen. Aber noch fliegt sie (aus der Luft oder vom Boden aus) mensch-gesteuert.
    Auch über Langstreckendrohnen, die in Gruppen fliegen, wobei sie von einer aus der Gruppe heraus ersetzbaren Drohne aus größerer Flughöhe gesteuert werden, soll die RF bereits verfügen.

  9. Ein Schlusssatz des Autors Michael Klare trifft es fast. –
    Ich korrigiere:
    Diese wenig intelligenten Automaten *) können nur solche Anweisungen ausführen, die simpel und extrem sind.

    Mathematiker haben sich ihre Welten verschieden ausphantasiert und kunstmodelliert. Jedoch die Welt der Kriegs-Automaten kennt nur Freund, Feind und Attacke.

    Diesen Kriegs-Automaten die Eskalation zu überlassen, das ist dasselbe, wie der Hochfrequenz-Börsenhandel in der Finanzkrise 2008 oder wie der “Atomkrieg aus Versehen” -> https://www.lebenshaus-alb.de/magazin/014985.html

    *) Chatbots gibt es schon länger, es handelt sich um bewährte, daher robuste und primitive Automatisierungstechnik, ergänzt durch Massendatenspeicher (Mustervergleich = Sämpeln) und Sprachmodul. Nix daran ist auch nur entfernt mit menschlicher Intelligenz vergleichbar. Diese Technik-Sklaven “intelligent” zu nennen, ist ein Marketing-Gag der großen IT-Konzerne. Damit will das Silicon Valley davon ablenken, wie dumm seine Sklaven tatsächlich sind – aber trotzdem sehr gefährlich in den Händen der Militärs!

  10. Vorweg, die oft bemühte Terminator-Skynet Dystopie ist mittlerweile ein Indikator für qualitativ schlechte oder übertriebene Berichterstattung über alles was irgendwie mit KI zu tun hat. Maschinen werden in absehbarer Zeit nicht über Menschen herrschen, weil unser Organismus sehr effizient und effektiv Nahrung in Energie und Kinetik umsetzen kann. Für elektronische Systeme ist Energieversorgung immernoch ein erstzunehmendes Problem, das in populär-kulturellen Betrachtungen (suspension of disbelief) nicht die Berücksichtigung findet, die es verdient. Ein portabler Fusionsreaktor bleibt noch sehr lange eine Utopie.

    Unbemannte Drohnen sind sind eine rein ökonomisch-militärische Lösung. Waffensysteme werden teurer durch steigende Komplexität einerseits. Andererseits fehlt mittlel- und langfrisitg qualifiziertes Bedienpersonal. Die USA stellt fest die VRC könnte in Zukunft quantitativ überlegen sein. Der maschninell übersetzte und nachbearbeitete Beitrag von Michael Klare ist eine Mischung aus Hype, Hybris und Verzweifelung eines Friedens- und Sicherheitsforschers.

    Emergenz ist ein Phänomen und Intelligenz eine messbare Eigenschaft mit Metriken (IQ, Elo-Zahl). Eine hohe allgemeine Kognitionsfähigkeit (IQ, beim Menschen) führt nicht zwangsläufig zu besseren Ergebnissen. Neuronale Netze haben eine Menge Probleme (option paralysis). Eine Spezialisierung oder Domänen-Expertise (Elo-Zahl) kann nur ein sehr spezifisches Problem effizient lösen. Digitale neuronale Ansätze sind im Vergleich zum Menschen resourcen- und energieintensiv und optimieren durch Reduktion des Lösungsraums.

    Kleine, insektengroße Drohnen z.B. werden noch lange Zeit Probleme mit der Energieversorgung haben. PV erzeugt nicht die notwendige Energiedichte. 3D-Druck ist zeit- und energieintensiv. Diese und viele weitere Annahmen aus dem mittlerweile 10 Jahre alten Dokument von Paul Schnarre sind mittlerweile unrealistisch oder skalieren nicht wie angenommen.

    Autonomes Fahren ist ein exzellentes Beispiel: Die Automobil-Industrie erreicht momentan eine gläserne Decke des Machbaren. In absehbarer Zeit bekommt der zivile Bereich einen etwas leistungsfähigeren, energieintensiven Tempomaten der weiterhin Intervention durch Fahrer oder Piloten benötigen wird. Die digitalen Elemente im Automobil bieten eine hohe digitale Angriffsläche, die weitesgehend ignoriert wird.

    In der Luft- und Schifffahrt ist die verkehrsdichte geringer als im Strassenverkehr in dicht besiedelten Gebieten. Autopiloten werden in absehbarer Zeit Lotsen nicht ersetzen.

    Quad- oder Multicopter z.B. sind weniger effizient als Gleiter mit Tragflächen. Die einzigen Vorteile die Drohnen in ein Kriegsgebiet bringen sind, sie sind unbemannt und ihre Antriebssysteme sind weniger aufwändig als Turbinen oder Raketenmotoren. Die Produktionskosten werden durch verfügbare Komponenten (Off the Shelf, Massenproduktion, Mopdularisierung) weiter gesenkt. Die unbegründete Annahme bleibt eine Effizienzsteigerung durch neuronale Netze und Emergenz. Kampfdrohnen sind deshalb in erster Linie Angriffsdrohnen, teilautonome Begleitsysteme oder Marschflugkörper denen Missionsparameter im Einsatzgebiet kommuniziert werden.

    Die beschriebene Switchblade Drohne ist eine Loitering Ammunition (Gleiter) und benötigt einen Operator.

    Die Annahme, intelligente Drohnenschwärme würden den Nebel des Kriegs durchdringen bleibt unbegründet. Schwärme z.B. erhöhen die Unübersichtlichkeit, tragen zum Chaos bei und verfügen über keine skalierbare Sensorik, die dieser n-endlichen Gemengelange gerecht werden kann. Daraus folgt, parallel zum Startsystem werden kooridinierdende Stellen (HQ, Relays) benötigt um zu verhindern dass autonome Drohnen die Siutation entweder eskalieren oder ignorieren.

    Die einzige bekannte Gegenmassnahme des Militärs ist derzeit menschliche Intervention. Auch elektronische Stör- und Gegenmassnahmen oder EMP werden igoniert. Laser bleiben weiterhin uninteressant.

    Das Argument von Under Secretary Jenkins ist in erster Linie die Feststellung, dass ein Regelwerkt für KI exisitert und man nun doch bitte loslegen und Geld in die militärische Forschung investieren möchte weil man befürchtet das China technisch aufschliesst.

    Ich bin zuversichtlich dass die bewährte Maschinenkanone, sensorunterstützt und aktuatorbasiert jetzt und in Zukunft viele künstlich-intelligente Drohnen kinetisch mit FAPDS in ihre Bestandteile zerlegen wird.

    Schönen Abend und angenehme, terminatorfreie Träume.

    1. “Ich bin zuversichtlich dass die bewährte Maschinenkanone, sensorunterstützt und aktuatorbasiert jetzt und in Zukunft viele künstlich-intelligente Drohnen kinetisch mit FAPDS in ihre Bestandteile zerlegen wird.”
      Ja eben, bloß “viele”. Nur so lange, wie der Schwarm (möglicherweise schon nach dem ersten Treffer) gelernt hat, sie zu umgehen oder nicht mehr geradeaus zu fliegen.
      Das ist auch bloß ein Killerroboter. Auch gegen den gibt es dann wieder einen Killerroboter, wahrscheinlich den mit dem Laserschwert. Und schon dreht sich die Spirale lustig weiter. Ganz analog zu Murphys Gesetz: “Es ist unmöglich, etwas vollkommen idiotensicher zu bauen. Wenn es doch einmal gelingt, bauen sie einen besseren Idioten”
      Nun macht mal idiotensicher. Geht ja nur um die Menschheit.

      1. Erklär mir bitte wie eine zerstörte Drohne etwas lernt?

        Die anderen Drohnen würden, wenn sie dazu in der Lage sind, nicht in den Wirkungsbereich der Maschinenkanone eintreten. Perimeter erfolgreich verteidigt, eine Drohne zerstört 999.999 abgeschreckt.

        Stell Dir nun bitte 999.999 Drohnen vor die abdrehen. Jeder Beobachter würde behaupten es wäre ein emergentes Phänomen, ähnlich wie Schwärme in der Natur. Das 999.999 Drohen die kommunizieren eine Menge Bandbreite verbrauchen und 999.999 mal ihre Beobachtung teilen führt zu einer Menge Rauschen das verarbeitet werden müsste, d.h. jede Drohne müsste 999.998 das gleiche Signal (einer von uns wurde zerstört) verarbeiten und der Schwarm würde vermutlich erstmal auf der Stelle schwärmen und dann abziehen.

        Ähnlich wie Heuschrecken die keine Nahrung mehr finden, das wäre erneut ein emergentes Phänomen, bis die Drohnen die Reichweite der Maschinenkanone ermitteln, werden (vermutlich) weitere zerstört. Die Vorraussetzung hier, Sensorik und Maschinenkanone haben eine größere Reichweite als die Drohnen, solange diese gewährleistet bleibt, ist der Perimeter sicher. D.h. Quantität ist wie Qualität kein Garant für einen Erfolg, z.B. Gebietsgewinn durch Drohnen und das verteidigende System braucht keine KI, nur Mathematik und ist wesentlich effizienter als Drohnen, weil stationär.

        Es werden eine Menge Parameter (Bandbreite+Energie+Rechenleistung=Overhead) nicht berücksichtigt, Schnarre wie Klare uvam. bringen nur Belege oder Beispiele, die die eigene Argumentation stützen, während andere Belege, die gegen die Argumentation sprechen bzw. sie widerlegen, bewusst weggelassen werden. Rosinenpicken stellt eines der zentralen Merkmale von pseudowissenschaftlichen Argumentationen dar.

        1. “Erklär mir bitte wie eine zerstörte Drohne etwas lernt?”
          Ich hatte ja geschrieben, daß der Schwarm es lernt.
          Richtig ist, daß die Reichweite der Sensorik entscheidend ist für Erkennung. Wenn eine Schwarmdrohne erfasst und zerstört wird, bevor sie die Kanone erkannt hat, wird das einseitig. Aber Du gehst davon aus, daß der Schwarm das nicht merkt, und das ist zu simpel gedacht, der Schwarm wird inhomogen sein mit Komponenten, die spezialisiert sind auf Fernaufklärung, und anderen Komponenten, die für die Bekämpfung der Maschinenkanone spezialisiert sind (das kann sogar eine Kinshal sein bei vernetzten Systemen) . Momentan sieht man schon sehr schön, wie schnell die Evolution von Drohnen und Drohnensystemen passiert, nur Monate bis zur nächsten Generation, und das obwohl überall Menschen und eine Bürokratie in der Fertigungskette sind.

          1. Danke für deine/ihre Replik, Emergenz bedeuet das der Scharm nicht lernt, weil Informationen innerhalb des Schwarms lediglich propagiert werden. Es gibt seit 10 Jahren Aufklärungsdrohnen (Perdix) die autonom operieren, nur werden diese Drohnen uns weder beherrschen oder regieren, noch sind sie intelligent, sie zeigen emergentes (kooperatives) Verhalten. Wenn eine Drohne ausfällt, übernimmt eine andere Drohne.

            Die Annahme diese Drohnen wären aufgrund von Emergenz nun wirklich intelligent ist unbegründet. Wie eine Maschinenkanone eben nicht Hyperschallmarschflugkörper bekämpfen kann, dafür bemüht man die Raketenabwehr, ggf. Satellitenaufklärung, Radar und Mathematik. Jede neue Massnahme produziert eine Gegenmassnahme.

            Die inflationäre Verwendung des Begriffs Emergenz steht auch in der Kritik, da viele Effekte als emergent beschrieben werden, obwohl die angeblich neuen Eigenschaften des Gesamtsystems auch aus ihren Einzelteilen erklärbar wären, ganz besonders bei ChatBots bzw. KI.

            Die Beschreibung einer Eigenschaft als emergent ist demnach oft nur eine Entschuldigung für mangelnde Einsicht oder Intelligenz des Betrachters, der die komplexen Zusammenhänge in einem System nicht versteht und vereinfachend als emergent bezeichnet (no offense). Ich lese alle paar Wochen eine Vorveröffentlichung, in der angeblich emergentes Verhalten beschrieben wird. Keine dieser Vorveröffentlichungen hat bisher wissenschaftlich standgehalten.

            So wie Gänse in V-Formation fliegen, werden Gänse uns in absehbarer Zeit nicht beherrschen, denn sie propagieren den Zustand des Schwarms untereinander, sie bleiben Gänse ob nun als Schwarm oder nicht. Sie werden weiterhin nur schnattern.

            Die Entwicklung, nicht Evolution (biologischer Prozess), von Drohnen läuft seit dem Marschflugkörper in den 1960er Jahren und es geht in diesem Bereich bei weitem nicht so schnell voran wie von Dir prognostiziert, deshalb soll und muss der Mensch als entscheidene Instanz erhalten bleiben.

            https://de.wikipedia.org/wiki/Hype-Zyklus erklärt die Situation besser, wir erleben gerade einen zweiten KI-Boom und das Militär nutzt die Situation um den Menschen aus dem Entscheidungsprozess zu entfernen.

            Ich halte auch gern fest, ich bin weiterhin dafür das der Mensch in diesem Entscheidungsprozess verbleibt, ich wünsche mir eine unaufgeregte Diskussion ohne Skynet oder Terminatoren.

    2. “Vorweg, die oft bemühte Terminator-Skynet Dystopie ist mittlerweile ein Indikator für qualitativ schlechte oder übertriebene Berichterstattung über alles was irgendwie mit KI zu tun hat. Maschinen werden in absehbarer Zeit nicht über Menschen herrschen, weil unser Organismus sehr effizient und effektiv Nahrung in Energie und Kinetik umsetzen kann. Für elektronische Systeme ist Energieversorgung immernoch ein erstzunehmendes Problem, das in populär-kulturellen Betrachtungen (suspension of disbelief) nicht die Berücksichtigung findet, die es verdient. Ein portabler Fusionsreaktor bleibt noch sehr lange eine Utopie.”

      Klingt logisch, allerdings nur bei tatsächlichen Mangel an Energie. Nur wer sagt denn, dass die notwendige Energie nicht zur Verfügung steht? Zumal in einer derzeitigen Gesellschaft, wo Überfluß als Maß aller Dinge betrachtet wird? Brauchst Du einen Kühlschrank? Hier, hier und hier – und auch dort und dort – überall kannst Du einen die holen. DAS meine ich z.B. mit Überfluß. Umwieviel mehr trifft dies für das Beziehen von Energie zu.

      Das Maß aller Dinge in jeglicher Auseinandersetzung wird die Reproduktion sein., WENN KEIN MANGEL an Ressourcen diesen begrenzt. Das Spiel ‘Horizon: Zero Dawn’ liefert m.E. eine gute Veranschaulichung, inkl. der Sehnsucht erst geldgeiler und später selbstherrlicher/machtbesessener Individuen (ich möcht da nicht mehr von Menschen sprechen), was so passieren könnte.

      Der Mangel an Ressourcen, die Bedeutung von Effizienz, wird m.E. zu gerne überschätzt. Beispiel: Wenn Worte ein Ziel nicht ermöglichen – eine Holzkeule zum richtigen Zeitpunkt wird es ganz sicher. Und? Wer fragt hier nach Energieverbrauch, wen interessiert es (später)?

      Klingt alles so sehr nach typisch Mensch und seiner Allwissenheit – ähm seiner schöpferischen Überlegenheit.

      Ich weiß ehrlich nicht, wieso menschliche Fehlentwicklung und Bosheit den von jenen entwickelten Maschinen und KI-Systemen abgesprochen werden sollte, oder warum Mangel an menschlichen Leistungsvermögen auch den von Menschen entwickelten Hochleistungsmaschinen abgesprochen wird, hier z.B. über das Agrument Leistungsaufnahme?

      Dieser Blickwinkel verhindert m.E. (und soll es vermutlich) die Einschätzung maschineller Fähigkeiten, welche der Mensch erst ermöglicht hat, ermöglich will. Ich mag diese Arroganz nicht, menschl. Fehler sowohl im voraus als auch hinterher auch noch zu heroisieren bzw. banalisieren. Das findet nach meinem Geschmack viel zu oft statt.

      Was z.B. an Abnutzung, Verbrauch, Energieeinsatz und und und in der Ukraine stattfindet: zählt das alles als Veranschaulichung garnichts? Nur deshalb vielleicht, weil keine Maschinen hier vollumfänglich mitwirken? Wie abgestumpft muss der Intellekt sein, der hier keine Parallelen und Verallgemeinerungen ableiten kann.

      Ein Hoch auf die Menschheit. Wir werden diesen Planeten überleben.

      LG

  11. Das Thema hat Daniel Suarez gründlich in seinem Roman “Kill decision” bearbeitet, der auch als Hörbuch verfügbar ist.
    Dort stiftet der MIK mithilfe autonomer Systeme einen großen Krieg an, der dann nur noch mithilfe autonomer Systeme einzudämmen wäre. Die Helden sind ein untergetaucht arbeitendes Geheimkommando inoffizieller Militärs und eine Ameisenforscherin. Die Reise führt rund um die Welt und beleuchtet die meisten Aspekte technischer Kriegsführung.

  12. Emergenz hat sich schon im Verhalten des Computerprogramms gezeigt, das heute den Weltmeister im Go stellt. Erst mit dem Überschreiten einer gewissen Rechenleistung (aka Anzahl von Prozessoren/ Arbeitsspeichergröße/ Programmcodegröße/ Komplexität) kam das Programm zur freien Erfindung von entscheidenden Spielschritten, die in mehreren Jahrtausenden vorher von vielen Millionen von menschlichen Spielern noch niemals erdacht worden waren.
    Und das ist nur EIN Computer.
    Wozu dann komplexere Systeme in der Lage sein werden, wenn sie auf das Schlachtfeld losgelassen werden, sollte jeden von uns gruseln lassen. Wahrscheinlich sind die übelsten Dystopien (von Menschen erdacht!) nur ein ganz ganz schwacher Vorgeschmack dessen, was dann passieren dürfte.
    Womöglich liegt hierin auch ein verdeckter Grund für das Fermi-Paradoxon: um einen interstellaren Kontakt zu einer anderen Intelligenz herstellen zu können, ist ein bestimmtes Level an technologischer Komplexität erforderlich. Das notwendige Level an technischer Komplexität für die Selbstauslöschung der intelligenten Rasse ist jedoch kleiner und wird deshalb früher erreicht.
    Leider ist das notwendige Level an Intelligenz, um dies zu verstehen (geschweige denn zu verhindern), bei den Machthabern heutiger Politik nicht mehr vorhanden. Bei den Nuklearwaffen war es damals noch vorhanden, man sollte den IQ von Kennedy, Stalin, Brandt, Mao, Ghandi, Ho, mal mit dem IQ heutiger Befehlshaber abgleichen. (BTW: wer von den geneigten Lesern kann alle die 6 Genannten, die mir so spontan einfielen, ohne Tante Gugl dem entsprechenden Staat zuordnen?)

      1. “die ein Mensch beim Go spielen verbraucht”
        Und was ist mit der Energie der vielen Millionen Spieler, die alle nicht diese entscheidenden Züge gefunden haben? Über Jahrtausende?
        Wenn Du jetzt schon mit Schwurbelei ankommst, sind Dir aber ganz schön schnell die Argumente ausgegangen… 😜
        Oder liegt es daran, daß ich das Bildungs- und Intelligenzniveau heutiger aktueller führender Politiker gern einmal erfasst und bewertet haben möchte? Geht Dir das sehr gegen den Strich?

      2. Wer Wikipedia als Autorität zitiert, hat jeden Anspruch verloren, ernstgenommen zu werden.

        Dabei diskreditiert bereits der Vorwurf “Geschwurbel”, der seit den Coronamassnahmen Teil herrschaftlicher Repressionsdiskurse und -denunziationen ist. So eine Scheisse nimmt man einfach nicht in den Mund.

        Nicht, dass ich mit Noname übereinstimme. Die Millionen Spieler haben mehrheitlich eher das Spiel zur Unterhaltung im Sinn gehabt als die Dokumentation neuer Züge. Ob nicht bereits welche die Züge des Computers schon mal genutzt haben, ist nicht bewiesen.

        1. Danke.
          Dazu kommt noch sein Verweis auf einen TED-Vortrag am 24. Februar 2024 um 16:57 Uhr. Ja, er will hier einen herrschaftlichen Diskurs führen. Hat sich wohl die falsche Spielwiese ausgesucht.

          “Ob nicht bereits welche die Züge des Computers schon mal genutzt haben, ist nicht bewiesen.” Tja, wie das so mit Nicht-Vorhandenseins-Beweisen so läuft: sie können nicht geführt werden… ;=)
          Und das Gegenteil würde etwa lauten: “Dafür, dass jemand diese Züge bereits benutzt hat, wurden bisher keine Belege bekannt”. Wofür ein Gegenbeweis möglich wäre.
          Ist aber jetzt bisschen Haarspalterei. Im Prinzip hast Du recht. Aber die fraglichen Computerzüge sind einfach so verblüffend gut, sie hätten sich früher schon durchgesetzt. Nur erfordern sie eine Strategietiefe, zu der Menschen eben bisher nicht in der Lage waren. Ob sie es in der Zukunft sein werden, stelle ich mal in Frage, bei einem Bildungssystem, das auf Verblödung und damit auf Negativselektion setzt.

          1. Danke für die Hinweise, die Strategietiefe bei Go wurde vom menschlichen Paradigma der historischen Spieler verdeckt und AlphaGo hat neue Erkenntnisse für Go geliefert, und nur dort. Ich geh dann mal…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert