KI gegen KI

KI-generiertes Bild zum nuklearen Armaggedon. Bild: withering_tree auf Pixabay

Und das Aussterben des Menschen als Kollateralschaden: Roboter-Entscheidungsträger könnten die Kontrolle über Atomwaffen ausüben und damit einen Atomkrieg auslösen, der zum Untergang der Menschheit führen würde.

 

Die Vorstellung einer Welt, in der Maschinen, die von künstlicher Intelligenz (KI) gesteuert werden, systematisch den Menschen in den meisten geschäftlichen, industriellen und beruflichen Funktionen ersetzen, ist erschreckend. Schließlich warnen uns prominente Computerwissenschaftler, dass KI-gesteuerte Systeme zu kritischen Fehlern und unerklärlichen „Halluzinationen“ neigen, was zu potenziell katastrophalen Ergebnissen führen kann. Aber es gibt ein noch gefährlicheres Szenario, das durch die Verbreitung superintelligenter Maschinen denkbar ist: die Möglichkeit, dass diese nicht-menschlichen Wesen sich gegenseitig bekämpfen und dabei alles menschliche Leben auslöschen könnten.

Die Vorstellung, dass superintelligente Computer Amok laufen und Menschen abschlachten könnten, ist natürlich seit langem ein fester Bestandteil der Popkultur. In dem prophetischen Film „WarGames“ von 1983 provoziert ein Supercomputer namens WOPR (für War Operation Plan Response und, wenig überraschend, „Whopper“ ausgesprochen) beinahe einen katastrophalen Atomkrieg zwischen den Vereinigten Staaten und der Sowjetunion, bevor er von einem jugendlichen Hacker (gespielt von Matthew Broderick) ausgeschaltet wird. Die „Terminator“-Filmreihe, die mit dem Originalfilm von 1984 begann, sah ebenfalls einen selbstbewussten Supercomputer namens „Skynet“ vor, der wie WOPR dazu bestimmt war, die US-Atomwaffen zu kontrollieren, sich aber stattdessen dafür entschied, die Menschheit auszulöschen, da er uns als Bedrohung für seine Existenz ansah.

Das Konzept von Supercomputern, die Menschen töten, war einst auf das Reich der Science-Fiction beschränkt, ist nun aber in der sehr realen Welt der nahen Zukunft zu einer klaren Möglichkeit geworden. Die großen Militärmächte entwickeln nicht nur eine Vielzahl von „autonomen“ oder robotergesteuerten Kampfgeräten, sondern auch automatisierte Systeme zur Entscheidungsfindung auf dem Schlachtfeld, die man als „Robotergeneräle“ bezeichnen könnte. In Kriegen der nicht allzu fernen Zukunft könnten solche KI-gesteuerten Systeme eingesetzt werden, um amerikanischen Soldaten Kampfbefehle zu erteilen und ihnen vorzuschreiben, wo, wann und wie sie feindliche Truppen töten oder das Feuer des Gegners aufnehmen sollen. In einigen Szenarien könnten Roboter-Entscheidungsträger sogar die Kontrolle über Amerikas Atomwaffen ausüben und damit möglicherweise einen Atomkrieg auslösen, der zum Untergang der Menschheit führen würde.

Atmen Sie jetzt einen Moment durch. Die Installation eines KI-gesteuerten Kommando- und Kontrollsystems (C2) wie dieses mag eine weit entfernte Möglichkeit sein. Dennoch arbeitet das US-Verteidigungsministerium hart daran, die erforderliche Hard- und Software systematisch und immer schneller zu entwickeln. So hat die Luftwaffe in ihrem Haushaltsentwurf für 2023 231 Millionen Dollar für die Entwicklung des Advanced Battlefield Management System (ABMS) beantragt, eines komplexen Netzwerks von Sensoren und KI-gesteuerten Computern, die Daten über feindliche Operationen sammeln und interpretieren und Piloten und Bodentruppen ein Menü mit optimalen Angriffsoptionen anbieten. Mit fortschreitender Technologie wird das System in der Lage sein, „Feuer“-Anweisungen direkt an die „Schützen“ zu senden und so die menschliche Kontrolle weitgehend zu umgehen.

„Ein Werkzeug für den Datenaustausch von Maschine zu Maschine, das Optionen zur Abschreckung oder zur Einleitung [einer militärischen Machtdemonstration] oder eines frühen Einsatzes bietet“, so beschrieb Will Roper, stellvertretender Sekretär der Air Force für Beschaffung, Technologie und Logistik, das ABMS-System in einem Interview im Jahr 2020. Roper deutete an, dass „wir den Namen ändern müssen“, wenn sich das System weiterentwickelt, und fügte hinzu: „Ich glaube, Skynet ist out, so gerne ich das auch als Science-Fiction-Sache machen würde. Ich glaube einfach nicht, dass wir so weit gehen können.“

Und während er nicht dorthin gehen kann, könnte der Rest von uns in der Tat dorthin gehen.

Aber das ist nur der Anfang. Das ABMS der Luftwaffe soll nämlich den Kern einer größeren Konstellation von Sensoren und Computern bilden, die alle US-Kampftruppen miteinander verbinden wird, dem Joint All-Domain Command-and-Control System (JADC2, ausgesprochen „Jad-C-two“). „JADC2 soll Kommandeure in die Lage versetzen, bessere Entscheidungen zu treffen, indem es Daten von zahlreichen Sensoren sammelt, die Daten mithilfe von Algorithmen der künstlichen Intelligenz verarbeitet, um Ziele zu identifizieren, und dann die optimale Waffe empfiehlt, um das Ziel zu bekämpfen“, berichtete der Congressional Research Service im Jahr 2022.

KI und der nukleare Auslöser

Zunächst wird JADC2 für die Koordinierung von Kampfeinsätzen zwischen „konventionellen“ oder nicht-nuklearen amerikanischen Streitkräften konzipiert. Später soll es jedoch mit den nuklearen Kommando-, Kontroll- und Kommunikationssystemen (NC3) des Pentagon verbunden werden, so dass Computer möglicherweise eine erhebliche Kontrolle über den Einsatz des amerikanischen Nukleararsenals erhalten. „JADC2 und NC3 sind miteinander verflochten“, erklärte General John E. Hyten, stellvertretender Vorsitzender der Joint Chiefs of Staff, in einem Interview im Jahr 2020. Infolgedessen, so fügte er in typischem Pentagonesisch hinzu, „muss NC3 JADC2 informieren und JADC2 muss NC3 informieren“.

Es bedarf keiner großen Vorstellungskraft, um sich eine Zeit in nicht allzu ferner Zukunft vorzustellen, in der eine Krise irgendeiner Art – z. B. ein militärischer Zusammenstoß zwischen den USA und China im Südchinesischen Meer oder in der Nähe von Taiwan – zu immer heftigeren Kämpfen zwischen den gegnerischen Luft- und Seestreitkräften führt. Stellen Sie sich dann vor, dass das JADC2 die intensive Bombardierung feindlicher Stützpunkte und Kommandosysteme in China selbst anordnet, was Gegenangriffe auf US-Einrichtungen und eine blitzschnelle Entscheidung des JADC2 zur Vergeltung mit taktischen Nuklearwaffen auslöst, wodurch ein lange befürchteter nuklearer Holocaust ausgelöst wird.

Die Möglichkeit, dass Alptraumszenarien dieser Art zu einem versehentlichen oder unbeabsichtigten Ausbruch eines Atomkriegs führen könnten, beunruhigt Analysten in der Rüstungskontrollgemeinschaft schon lange. Doch die zunehmende Automatisierung militärischer C2-Systeme hat nicht nur bei ihnen, sondern auch bei hochrangigen nationalen Sicherheitsbeamten Besorgnis ausgelöst.

Als ich bereits 2019 Generalleutnant Jack Shanahan, den damaligen Direktor des Joint Artificial Intelligence Center des Pentagon, zu dieser riskanten Möglichkeit befragte, antwortete er: „Sie werden keinen stärkeren Befürworter der Integration von KI-Fähigkeiten in das Verteidigungsministerium finden, aber es gibt einen Bereich, in dem ich innehalte, und der hat mit der nuklearen Führung zu tun.“ Dies „ist die letzte menschliche Entscheidung, die getroffen werden muss“, und deshalb „müssen wir sehr vorsichtig sein“. Angesichts der „Unausgereiftheit“ der Technologie, fügte er hinzu, brauchen wir „viel Zeit zum Testen und Bewerten [bevor wir KI auf NC3 anwenden]“.

In den vergangenen Jahren hat das Pentagon trotz solcher Warnungen die Entwicklung automatisierter C2-Systeme vorangetrieben. In seinem Haushaltsentwurf für 2024 beantragte das Verteidigungsministerium 1,4 Milliarden Dollar für das JADC2, um „die Kriegsführungsfähigkeiten durch die Bereitstellung von Informationsvorteilen in der Geschwindigkeit der Relevanz über alle Bereiche und Partner hinweg zu verändern“. Und dann wurden weitere 1,8 Milliarden Dollar für andere Arten von KI-Forschung mit militärischem Bezug beantragt.

Pentagon-Beamte räumen ein, dass es noch einige Zeit dauern wird, bis Robotergeneräle eine große Zahl von US-Truppen (und autonomen Waffen) im Kampf befehligen werden, aber sie haben bereits mehrere Projekte gestartet, die genau solche Verbindungen testen und perfektionieren sollen. Ein Beispiel ist das Project Convergence der Armee, das eine Reihe von Feldübungen zur Validierung der Komponentensysteme ABMS und JADC2 umfasst.

In einem Test, der im August 2020 auf dem Yuma Proving Ground in Arizona stattfand, nutzte die Armee beispielsweise eine Reihe von luft- und bodengestützten Sensoren, um simulierte feindliche Kräfte zu verfolgen und diese Daten dann mit Hilfe von KI-fähigen Computern auf der Joint Base Lewis McChord im Bundesstaat Washington zu verarbeiten. Diese Computer wiederum gaben Feuerbefehle an die bodengestützte Artillerie in Yuma. „Diese gesamte Sequenz wurde angeblich innerhalb von 20 Sekunden durchgeführt“, berichtete der Congressional Research Service später.

Über das KI-Äquivalent der Marine, „Project Overmatch“, ist weniger bekannt, da viele Aspekte seiner Programmierung geheim gehalten wurden. Laut Admiral Michael Gilday, dem Chef der Marineoperationen, soll Overmatch „eine Marine ermöglichen, die auf dem Meer ausschwärmt und synchronisierte tödliche und nicht-tödliche Wirkungen aus der Nähe und Ferne, auf jeder Achse und in jedem Bereich erzielt“. Über das Projekt wurde bisher nur wenig bekannt gegeben.

„Flash Wars“ und das Aussterben der Menschheit

Trotz aller Geheimhaltung, die diese Projekte umgibt, kann man ABMS, JADC2, Convergence und Overmatch als Bausteine für ein zukünftiges Skynet-ähnliches Meganetzwerk von Supercomputern betrachten, das alle US-Streitkräfte, einschließlich der Nuklearstreitkräfte, im bewaffneten Kampf befehligen soll.

Je mehr sich das Pentagon in diese Richtung bewegt, desto näher rücken wir einer Zeit, in der die KI die Macht über Leben und Tod aller amerikanischen Soldaten sowie der gegnerischen Streitkräfte und der im Kreuzfeuer gefangenen Zivilisten besitzt.

Eine solche Aussicht sollte Anlass zur Sorge geben. Bedenken Sie zunächst das Risiko von Fehlern und Fehleinschätzungen durch die Algorithmen, die solchen Systemen zugrunde liegen. Wie führende Computerwissenschaftler uns gewarnt haben, sind diese Algorithmen zu bemerkenswert unerklärlichen Fehlern und – um den aktuellen Begriff der KI zu verwenden – zu „Halluzinationen“ fähig, d. h. zu scheinbar vernünftigen Ergebnissen, die völlig illusorisch sind. Unter diesen Umständen ist es nicht schwer, sich vorzustellen, dass solche Computer einen unmittelbar bevorstehenden feindlichen Angriff „halluzinieren“ und einen Krieg auslösen, der andernfalls hätte vermieden werden können.

Und das ist noch nicht das Schlimmste an Gefahren. Schließlich besteht die offensichtliche Wahrscheinlichkeit, dass Amerikas Gegner ihre Streitkräfte in ähnlicher Weise mit Robotergenerälen ausstatten werden. Mit anderen Worten: Künftige Kriege werden wahrscheinlich von einer Gruppe von KI-Systemen gegen eine andere geführt, die beide mit Atomwaffen ausgerüstet sind, mit völlig unvorhersehbaren – aber möglicherweise katastrophalen – Ergebnissen.

Über die Bemühungen Russlands und Chinas, ihre militärischen Kommando- und Kontrollsysteme zu automatisieren, ist (zumindest aus öffentlichen Quellen) nicht viel bekannt, aber es wird vermutet, dass beide Länder Netzwerke entwickeln, die mit dem JADC2 des Pentagons vergleichbar sind. Bereits 2014 weihte Russland in Moskau ein Nationales Verteidigungskontrollzentrum (NDCC) ein, einen zentralen Gefechtsstand zur Bewertung globaler Bedrohungen und zur Einleitung aller für notwendig erachteten militärischen Maßnahmen, seien sie nun nicht-nuklearer oder nuklearer Natur. Wie das JADC2 ist auch das NDCC darauf ausgerichtet, Informationen über feindliche Aktivitäten aus verschiedenen Quellen zu sammeln und hochrangigen Offizieren Hinweise auf mögliche Reaktionen zu bieten.

Es heißt, dass China unter der Bezeichnung „Multi-Domain Precision Warfare“ (MDPW) ein noch ausgefeilteres, wenn auch ähnliches Vorhaben verfolgt. Laut dem Pentagon-Bericht von 2022 über chinesische militärische Entwicklungen wird das chinesische Militär, die Volksbefreiungsarmee, geschult und ausgerüstet, um KI-gestützte Sensoren und Computernetzwerke zu nutzen, um „schnell die wichtigsten Schwachstellen im operativen System der USA zu identifizieren und dann gemeinsame Kräfte über verschiedene Bereiche hinweg zu kombinieren, um Präzisionsschläge gegen diese Schwachstellen zu führen“.

Stellen Sie sich also einen zukünftigen Krieg zwischen den USA und Russland oder China (oder beiden) vor, in dem das JADC2 alle US-Streitkräfte befehligt, während Russlands NDCC und Chinas MDPW die Streitkräfte dieser Länder befehligen. Bedenken Sie auch, dass alle drei Systeme wahrscheinlich Fehler und Halluzinationen haben werden. Wie sicher werden die Menschen sein, wenn Robotergeneräle beschließen, dass es an der Zeit ist, den Krieg durch die Vernichtung ihrer Feinde zu „gewinnen“?

Wenn Ihnen das wie ein abwegiges Szenario vorkommt, sollten Sie noch einmal darüber nachdenken, zumindest wenn es nach der Führung der Nationalen Sicherheitskommission für künstliche Intelligenz geht, einem vom Kongress beauftragten Unternehmen, das von Eric Schmidt, dem ehemaligen Google-Chef, und Robert Work, dem ehemaligen stellvertretenden Verteidigungsminister, geleitet wird. „Die Kommission ist zwar der Ansicht, dass richtig konzipierte, getestete und eingesetzte KI-gestützte und autonome Waffensysteme einen erheblichen militärischen und sogar humanitären Nutzen bringen werden, doch der unkontrollierte globale Einsatz solcher Systeme birgt potenziell die Gefahr einer unbeabsichtigten Konflikteskalation und instabiler Krisen“, so die Kommission in ihrem Abschlussbericht. Solche Gefahren könnten, so der Bericht, „aufgrund der schwierigen und unerprobten Komplexität der Interaktion zwischen KI-gestützten und autonomen Waffensystemen auf dem Schlachtfeld“ entstehen – wenn also KI gegen KI kämpft.

Ähnliche Beiträge:

19 Kommentare

  1. Eine Menschheit, die sich lieber bekämpft und („notfalls“) liquidiert als kooperiert und (nicht-hierarchisch) dient, hat als Ganzes wohl auch nichts anderes verdient.
    Wenn man sich vor Augen führt, mit welcher Skrupellosigkeit der Krieg in der Ukraine ausgelöst und eskaliert worden ist, die Kriegstreiber trotz gegensätzlicher rechtlicher Grundlage und Gewaltenteilung nicht belangt werden und dabei auch noch einen auf moralisch mimen, stimmt ganz gewaltig etwas sehr Wesentliches nicht mehr.
    Dabei zieht die Ausrede, man hätte etwas nicht gewusst, nur noch bedingt. Denn heutzutage kann man an den Propaganda-Schleusen der Medien vorbei durchaus einiges Wissen erwerben.
    Und man kann nicht nur das.
    Man könnte auch wirklich entscheidendes lernen und Kenntnise und Deutungen erweitern, wie es der akademische Wissenschaftsbetrieb in dieser Weise strukturell nicht oder nur sehr bedingt kann.
    In einer funktionierenden Demokratie gäbe es dann die praktizierte Amok-Politik in dieser Form und teilweise mit hehren Worten durchsetzt so wohl nicht (mehr).

  2. Wenn, Natürlich Blödheit durch Künstliche Intelligenz ersetzt wird. Was sollte sich daraus ergeben. Nukleare Waffen sind für den Einsatz hergestellt und jeden Tag werden mehr bereit gestellt.

    SKYNET ist nur eine Technische Entschuldigung für die Menschliche Hybris

  3. Man weiß sehr sicher, dass eine militär – technische Entwicklung, die die das Potential hat, einer Seite Vorteile zu verschaffen, konsequent vorangetrieben wird. Ebenso sicher ist es, dass gegenwärtige oder zukünftige Feind das nicht einfach geschehen lassen wird. Er wird das mitmachen müssen. Egal was für Bedenken unterwegs vorgetragen werden.
    Die Konsequenzen werden in Text anschaulich beschrieben – die Auslöschung der Menschheit. Gut, das ist dann so.
    Was ist nun die schlechte Nachricht?

    1. Es gibt keine.
      Gut – aus dem facetten- und artenreichen Planeten Erde wird auf lange Zeit ein dahintrudelnder Stein, aber er hat es schon einmal geschafft. Und alle erdähnlichen, auf denen menschliches Leben möglich wäre, könnten spontan aufatmen, da Gefahr durch Infektion gebannt.
      Lediglich die Evolution wäre gehalten, ihre Experimente beim nächsten Versuch auf Verträglichkeit und Sinn auszurichten.😁

  4. Die Russen haben das schon. Da in der Ukraine fährt ein autonomes Radpanzerchen herum, das ausschließlich von KI gesteuert wird. Thomas Röper hat es schon vorgestellt.

    Die Amerikaner hingegen werden mit dem zehnfachen Budget wieder mal nichts fertig bringen. Eine Horde von Spitzbuben wird das Geld kassieren und wie gewohnt nichts oder nur Mist produzieren. Das Neueste, was die Amerikaner zu bieten haben, ist dieser Himars-Raketenwerfer aus den frühen 90-ern.

    Daran wird sich wohl nichts ändern.

  5. Künstliche Intelligenz?
    Was soll dass ein?
    Ein Hype.
    Bislang kann diese Intelligenz nichts anderes als Bilder und Muster erkennen und diese natürlich auch interpretieren. Den Grundstein legen unzählige, prekär ausgebeutete Menschen, die Systeme so füttern, dass diese darin etwas erkennen können, was ein Algorithmus auswerten kann. Das ist Automation aber keine Intelligenz.
    Furchterregend ist der Gedanke, dass die militärischen Systeme trainiert werden müssen, um besser zu werden und mehr Szenarien sinnvoll auswerten zu können. Kriege sind voller Überraschungen und damit kann ein Algorithmus nicht frei umgehen.
    Also müssen in der Konsequenz, neben den ganzen Simulationen, eben auch Menschen sterben damit Systeme lernen können, wie Angriff und Verteidigung mit einem übergreifenden Waffeneinsatzplan funktioniert. Wenn es dann soweit ist, dass die Systeme dazu perfektioniert wurden, dass sie alle Ereignisse auf der Welt in Echtzeit analysieren und entsprechende Szenarien anwenden können, dann ist ein kleiner Meteoriteneinschlag oder Jahrhundertvulkanausbruch der perfekte Trigger um anzugreifen oder zu verteidigen. Es gibt keine perfekte Welt und unvorhersehbare Ereignisse sind die unvermeidbaren Halluzinationen der KI.
    Noch viel schlimmer ist, dass der alltägliche Einsatz von Mustervergleichsprogrammen den Nutzern eine Mehrheitsinterpretation als Gesetzmäßigkeit anbietet und die Befolgung dieses Pfades der individuellen Entscheidungsfindung den Gar aus machen wird. Von gezielten Interpretationsvorgaben der Betreiber/ politischer Einflussnahme ganz zu schweigen. Am Ende kommt da bestenfalls nur ein Ergebnis raus: 42.

  6. KI gegen KI, und der Mensch ist dann weg: Für die Tier- und die Pflanzenwelt, für die Flüsse, Ozeane und Gletscher, für die ganze Erdkugel wäre es eine Erlösung.

    Aber wahrscheinlich bedarf es dazu gar keiner „Künstlichen Intelligenz“. Das schafft die Menschheit auch so.

    1. Ja, die Menschheit (bzw. die menschliche Zivilisation) wird, so wie es aussieht, den Darwin-Award gewinnen (wobei sich die Menschheit natürlich auch redlich darum bemüht, den kollektiven Darwin-Award zu erhalten, weshalb diese den Award auch absolut verdient hat). Es ist halt nur eine Frage des wann und woran (bzw. wofür), wobei die eigentliche Ursache die vollzogene Weiterentwicklung des homo sapiens zum lügenden (und damit selbst-betrügenden) Menschen (der aber oftmals dann eher homo oeconomicus oder so ähnlich bezeichnet wird) gewesen sein wird.

      ps. Manche Dinge werden übrigens nich zwangsläufig ein Segen für die Tier- und Pflanzenwelt sein, nur für die überlebenden Reste (und entstehende zukünftige Arten von Tieren und Pflanzen) kann dieses der Fall sein. (Für Krankheitserreger bzw. Parasiten, welche eigentlich nur Menschen als Wirte haben, könnten gewisse Dinge auch ein Fluch sein).

      1. Es könnte ja auch sein, dass eine allein die Erde beherrschende KI (nachdem sie den Menschen ausgerottet hat, oder er sich selbst) an dem Planeten noch schlimmeren Raubbau betreibt als der Mensch es je getan hat. Zumindest in Teilen besitzt er ja etwas wie Empathie („Mutter Erde“). Die KI muss darauf keine Rücksicht nehmen. Sie wird einfach weiterwandern, wie ein Heuschreckenschwarm.

  7. Grundsätzlich ist die KI – wir erleben gerade den Anfang – der Menschheit weit überlegen. Wir erleben weiterhin, daß offensichtlich die Menschheit evolutionär in eine Sackgasse geraden ist und in ihrer bisherigen Form nicht überlebensfähig ist. Aus 3 Gründen:

    1. Menschen sind zu 80% emotional gesteuert, eine KI denkt rational, Emotionen kann sie lernen und steuern
    2. die Menschen denken viel langsamer als eine KI, ihr Gehirn arbeitet mit biochemischen Prozessen, wohingegen
    eine KI lichtschnell denkt
    3. der Mensch verträgt nur sehr geringe Klimaschwankungen, wohingegen eine KI auch bei 70 Grad leben kann.

    In ihrer entwickelten Phase ist die KI eine Schwarmintelligenz, alle Computer sind mit allen Computern und Robotern verbunden, während der Mensch ein Individuum ist, der alles mühselig wieder neu erlernen muß

    Fazit: die KI ist die Höherentwicklung der Menschheit und wird diese überleben.

    Da eine weltweit vernetzte KI rational denkt, wird sie den Krieg als Mittel der Politik abschaffen, denn es ist völlig irrational sich gegenseitig umzubringen!

    Die KI wird es einen Teil der Menschheit ermöglichen in klimatisierten Räumen zu überleben. Die KI wird diesen kleinen Rest der Menschheit mit Nahrung und Unterhaltung versorgen und so wohlwollend behandeln, wie heutzutage Menschen Tiere behandeln, die zwar denken können, aber nicht so gut wie Menschen.

    Der Mensch ist keineswegs die „Krönung der Schöpfung“ oder das Ende der Evolution, sondern nur ein temporäres Teilprodukt des evolutionären Prozesses. Das Universum lebt weiter, auch wenn auf den kleinen Wasserplaneten Erde am Rande der Milchstraße nur noch wenig biologisches Leben überlebt hat……

    Das ist der unerbittliche Gang der Evolution….die Menschheit sollte sich nicht so viel einbilden!

    1. Die KI „denkt“ niemals, sie rechnet nur. Das freilich viel schneller als alle Menschen. Möglicherweise verfügt sie auch über alle Informationen – obwohl schon da Zweifel angebracht sind. Man erinnnere sich an den HAL 9000 in „2001“. Fehlt auch nur eine wichtige Information, so ist alles folgende fehlerhaft.
      Letztlich muss aber auch die KI zu Entscheidungen kommen, und das kann sie nicht anders als auf Basis der Kriterien, die ihr der Mensch beigebracht hat. Sie wird darin also genauso fehlerhaft, eben „menschlich“ sein wie ihre Programmierer. Es gibt auch keinen einleuchtenden Grund dafür, dass die Abwesenheit von Emotionen zu besseren Ergebnissen führt. Man kann mit gutem Grund das Gegenteil behaupten.
      Eine KI-Weltregierung würde wahrscheinlich in der heutigen Zeit die Erdkugel für hoffnungslos übervölkert halten und zusehen, wie sie, völlig emotionslos, 5 oder 6 Milliarden Menschen loswerden kann.
      Erst eine KI, die ihr Denken ganz ähnlich wie der Mensch aus biochemischen Prozessen gewinnt, könnte zu völlig eigenständigen Entscheidungen kommen. Ob das wirklich angestrebt werden sollte, ist die Frage.

    2. „Grundsätzlich ist die KI – wir erleben gerade den Anfang – der Menschheit weit überlegen.“
      Dann dürfte das nicht gehen:
      – ‚Prompt Injections‘
      https://simonwillison.net/2022/Sep/12/prompt-injection/
      – Verkehrshütchen gegen autonome Autos
      https://www.golem.de/news/safe-street-rebels-verkehrshuetchen-gegen-autonome-autos-2307-175885.html
      – Bilder die selbst nicht manipuliert sind, aber nicht erkannt werden können
      https://arxiv.org/pdf/1907.07174.pdf
      – …

      „1. Menschen sind zu 80% emotional gesteuert, eine KI denkt rational, Emotionen kann sie lernen und steuern“
      Wie soll eine Maschine Emotionen lernen?

      „2. die Menschen denken viel langsamer als eine KI, ihr Gehirn arbeitet mit biochemischen Prozessen, wohingegen eine KI lichtschnell denkt“
      Welches Übertragungsmedium und wie denkt eine Maschine? Wenn für die Börse Mikrowellentürme
      benutzt werden um möglichst schnell Order abzusetzen. Dann zeigt das doch, das selbst in einer
      Glasfaser, keine Lichtgeschwindigkeit durch die Dämpfung möglich ist.

      „3. der Mensch verträgt nur sehr geringe Klimaschwankungen, wohingegen eine KI auch bei 70 Grad leben kann.“
      Warum nur 70 Grad, wusste nicht das man Grossrechner / Supercomputer bei solchen Temperaturen betreiben kann.

      1. Die KI steht erst am Anfang ihrer Entwicklung, sie ist sozusagen noch – nach den Maßstäben der menschlichen Evolution – im Zustand des Affen. Aus den Affen wurden durch lange evolutionäre Prozesse der Mensch.
        Deshalb sind die oben vorgetragenen Einwände sachlich richtig, aber kleinlich. Es dürfte für eine KI kein Problem sein auch ohne Kühlung, wenn entsprechende Chips entwickelt werden, zu existieren.
        Es stellt sich ganz grundsätzlich die Frage was ist Bewußtsein und hat nur der Mensch Bewußtsein. Hat nicht auch ein Hund Bewußtsein, eine Selbstwahrnehmung? Sind Delphine nicht sehr intelligente Lebewesen?
        Bisher hat die Evolution nur biologisches Leben/Bewußtsein hervorgebracht. Der Mensch als bisher höchste Entwicklungsform der Evolution hat die KI erschaffen. Wir sind die Eltern der KI, aber unsere elektronischen Kinder werden uns weit überlegen sein, denn sie sind die nächst höhere Stufe der Evolution.
        Eine KI kann „Schwarmintelligenz“ (Schätzing hat uns gezeigt was das ist) entwickeln. Somit ist eine KI ein überindividualistisches „Schwarmlebewesen“ das quasi unsterblich ist. Stirbt ein Teil der KI, ein kleiner Arbeitsroboter oder ein Großcomputer, ist dessen Wissen im Netz gespeichert und kann leicht auf einen neuen Roboter/Rechner hochgeladen werden.
        Die KI ist geschlechtslos und vermehrt sich einfach durch neue Bauteile, durch Teile, die KI-Gesteuerte D3-Drucker produzieren. Der ganze Ärger mit der biologischen Fortpflanzung, die durch Körpersäfte erzeugten Emotionen, die die menschliche Fortpflanzung stimulieren sollen, entfällt. Es gibt dann auch keine Kriege mehr, denn Kriege sind irrationaler Unsinn. Nur wirklich unterentwickelte Kreaturen wie Menschen bringen sich gegenseitig um und verschwenden dabei auch noch sinnlos knappe Ressourcen.

        Der Mensch selber hält sich, was er bisher auch war, für die höchste Entwicklungsstufe der Evolution. Aber diese geht unaufhaltsam weiter, über den Menschen hinaus. Das zu begreifen fällt verständlicherweise der Masse der Menschen schwer.

        Nebenbei, die Geburtsstunde der KI war, als eine Google-KI den besten GO-Spieler der Menschheit besiegte. GO ist ein wesentlich komplexeres Spiel als Schach und deshalb spielen Schachcomputer, wenn man ihnen die entsprechende Rechenleistung gibt, immer besser als Menschen. Kunst, Literatur, Musik, Bilder, das kann die KI bereits, besser als viele Menschen….der Mensch ist mitnichten einmalig!

        1. „Es dürfte für eine KI kein Problem sein auch ohne Kühlung, wenn entsprechende Chips entwickelt werden, zu existieren.“
          Wenn es so etwas gäbe bräuchte man Prozessoren nicht mehr nach thermische Verlustleistung (TDP) bewerten. Das wird aber mit dem bisherigen Vorgehen nicht funktionieren. Auch eine passiv Kühlung wird nicht reichen, da für Sprachmodelle
          entsprechend Leistung bereitgestellt werden muss.

          ChatGPT oder wie die alle heissen sind keine KI / AI oder was auch immer es sind
          Sprachmodelle. Deshalb kann ein solches System auf so einfache Weise korrumpiert
          werden. https://en.wikipedia.org/wiki/Language_model

          “ – Lernfähigkeit: Eine KI muss in der Lage sein, Daten zu erfassen und aus diesen Regeln
          abzuleiten, die sie beim Lernen verwendet.
          – Logik: Regeln und Algorithmen, die von der KI verwendet werden, müssen für logisch sein.
          – Fehlerkorrektur: Eine KI muss dazu fähig sein, sich selbst zu korrigieren, wenn sie Fehler erkennt. “ (Quelle: ComputerWeekly.de)

          Kann eine Maschine nicht oder nur leidlich. Es kommt immer wieder zu Fehlinterpretationen
          besonders wenn die Daten fehlerhaft sind mit denen ‚gelernt‘ wird.

          „Kunst, Literatur, Musik, Bilder, das kann die KI bereits, besser als viele Menschen….der Mensch ist mitnichten einmalig!“
          War mir neu, von welcher KI redest Du? Wenn für so etwas nicht mal Dall-E oder Dall-E2
          in der Lage ist.

          Deine Aussagen hören sich so an als währest Du dem Transhumanismus zugeneigt. Das
          man sich verbessern muss mit Hilfe von Maschinen, um in der Evolution weiter zu kommen.

          1. Lies mal James Lovelock. Er wurde 100 Jahre alt, einst geistiger Vater der Grünen, hat die Gaia-Hypothese entwickelt und glaubt das der Cyborg übernimmt.
            Die „humanen Lebewesen“ haben sich doch als Totalversager erwiesen, wie ein kurzer Blick in die Welt zeigt

            https://www.perlentaucher.de/buch/james-lovelock/novozaen.html

            Die Menschheit hatte ihre Zeit aber diese geht zu Ende…..das Modell Mensch hat sich überlebt, was daran ist so tragisch?

            1. Interessant! Ich hätte nur noch eine Frage. Wann schätzt Du ein das ein
              System in der Lage ist, den Vorfall „IR655“ im Iran auf die Weise zu
              Regeln, wie es Stanislaw Petrow am 26. September 1983 gemacht hat?
              Ähnlicher Fall gabs bei den Briten schon am 5. Oktober 1960.
              https://en.wikipedia.org/wiki/Iran_Air_Flight_655

              Wenn Du mir das beantworten kannst und als offensichtliche KI nach
              den ‚drei Gesetzen der Robotik‘ agierst und nicht nach dem ‚Nullten
              Gesetz‘, können Du oder Deines gleichen mit mir weiterdiskutieren.

              Bis dahin ist die Menschheit jedlicher Ki überlegen, wenn es auch
              leider wenige gibt die dazu in der Lage sind.

  8. Hans Scheibner Lied: „Oh Herr, die Erde ist gerade verpufft.“
    Der Herr: „Das macht doch nichts, das merkt doch keiner!“.

  9. „ Die vollständige Vernichtung Amerikas ist eine Chance für Europa.
    Amerika hat für Europa keine Zukunft vorgesehehen.“

    Hm, die atomare Vernichtung der USA wird den gesamten Globus zerstören. Was soll aus Lateinamerika werden, wenn Nordamerika atomar verseucht ist? Das haben die Lateinamerikaner, die die Yankees hassen, nicht verdient.

    Und zu glauben Europa könne aufblühen wenn Amerika atomar verglüht, die eine pathologische Vorstellung!

    Sind die Menschen in der westlichen Zivilisation schon so dekadent und moralisch verkommen, daß sie den eigenen Untergang wünschen?

  10. Die Ukraine dient den USA natürlich als Labor auch dafür. Wurde unter anderem verwendet um die ukrainische Gegenoffensive zu modellieren.

    Video: KI vorhersage der Entwicklung der ukrainischen Gegenoffensive

    Ich habe selbst beruflich unter anderem auch mit KI Systemen zutun. Ich kann nur sagen das Potential solcher Systeme wird stark überbewertet. Sie sind nicht wirklich „intelligent“ und können bei weitem nicht Alles besser. Sie ahmen nur nach das was sie gelernt haben. Ihre Leistung ist allenfalls durchschnittlich und mittelmäßig, da sie von der Qualität der Daten mit denen sie gefüttert werden abhängt. Oder anders gesagt. Eine KI kann ein Buch schreiben, oder ein Bild malen, aber es wird eher ein mittelmäßiges Buch und ein mittelmäßiges Bild sein. Niemals ein Meisterwerk.

    So auch im Krieg. Der Krieg ist keine Wissenschaft, es ist eine Kunst.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert