Künstliche Intelligenz: Ist sie nun ein Segen – oder doch ein Fluch? Und vermag sie zu leisten, über menschliches Leben oder dessen Ende zu verfügen?
Roberto De Lapuente hat mit Prof. Karl Hans Bläsius gesprochen. Bläsius war Professor für Künstliche Intelligenz.
De Lapuente: Wir sprechen heute ganz ungeniert von Künstlicher Intelligenz – dass die künstlich ist, leuchtet ein. Aber ist Sie denn im eigentlichen Sinne intelligent? Fehlen nicht wesentliche Attribute, die wir bis dato dem einzigen Intelligenzträger, dem Menschen, zuerkannten?
Bläsius: Das kommt darauf an, wie Intelligenz charakterisiert wird. Damit beschäftigt man sich in unterschiedlichen Fachgebieten, wie der Psychologie, der Philosophie und auch in der Informatik. Es gibt keine allgemein akzeptierte Definition für Intelligenz, sondern nur charakteristische, teils auch vage Beschreibungen. Informatiker, die sich mit KI beschäftigen, haben eher einen pragmatischen Ansatz. Sie möchten Systeme realisieren, die in der Lage sind, anspruchsvolle Aufgaben zu bearbeiten und Lösungen selbst dann zu finden, wenn bei der Programmierung nicht bekannt ist, welche Aufgaben konkret vorkommen werden und wie Lösungswege dazu bestimmt werden können.
»Aspekte, die bei der menschlichen Intelligenz wichtig sind, könnten bei maschineller Intelligenz fehlen«
De Lapuente: Welcherlei Aufgaben sind damit gemeint?
Bläsius: Es geht dabei oft um Aufgaben, für die Menschen ein gewisses Maß an Intelligenz benötigen. Aber auch das Verstehen natürlicher Sprache und das Erkennen und Bewerten von Bildinhalten gehört zur KI. Solche Aufgaben können Menschen relativ leicht lösen, maschinelle Lösungen hierfür sind allerdings sehr schwer. Beim Menschen passiert vieles unterhalb der Bewusstseinsschwelle und ist von Gefühlen bestimmt. Solche Aspekte, die bei der menschlichen Intelligenz wichtig sind, könnten bei einer maschinellen Intelligenz fehlen. Es könnte auch sein, dass es deshalb Grenzen für die KI gibt, die nicht oder nicht so schnell überwunden werden können. Aber das muss nicht sein, solche Defizite könnten durch andere Aspekte ausgeglichen werden. Systeme der KI werden beim Lösen von Problemen nicht unsere Gefühle haben, das spielt aber keine entscheidende Rolle, wenn die Antworten und Lösungen von KI-Systemen sehr gut sind. Eine künstliche Intelligenz kann auf völlig andere Art erreicht werden und muss nicht genau der menschlichen Intelligenz entsprechen.
De Lapuente: Nun wollte ich mit Ihnen ja das Themenfeld Künstlicher Intelligenz und Massenvernichtungswaffen besprechen. Wenn ich jetzt direkt in medias res gehen darf: Braucht es beim Drücken eines roten Knopfes nicht vielleicht gerade doch ein bisschen Gefühl, Abwägungssensibilität, schlicht Menschlichkeit? Oder kann KI das auch simulieren – und sich damit die Entscheidung, Millionen Menschen in den Tod zu schicken, schwermachen wie unsereins?
Bläsius: Zunächst muss man davon ausgehen, dass KI-Systeme im Falle von Entscheidungen über Leben und Tod ohne irgendwelche Emotionen nach gewissen Regeln und gelernten Einstellungen entscheiden. Aspekte wie Bewusstsein, Gefühle und Willen von Maschinen sind zunächst nicht vorhanden und es ist hoch umstritten, ob so etwas realisierbar ist. Es gibt aber keine bekannten Grenzen für solche Aspekte. Es ist auch kein prinzipielles Problem, Systeme zu realisieren, die so etwas wie Bewusstsein oder Gefühle simulieren. Die Frage ist nur, in welcher Qualität dies möglich ist, d.h. wie wirksam solche Eigenschaften realisiert werden können. Bei Menschen können Einfühlungsvermögen und Abwägungssensibilität sehr unterschiedlich ausgeprägt sein. Es gibt auch Menschen, bei denen solche Merkmale in geringem Maße vorhanden sind. Das zeigt sich immer wieder in Kriegen bei schlimmen Kriegsverbrechen, die z.B. auch im Zweiten Weltkrieg vorkamen. Bei den Tätern waren diese Einstellungen nicht angeboren, sondern haben sich im Laufe der Zeit durch viele Einflussnahmen entwickelt.
De Lapuente: Aber KI kann doch dazulernen – jedenfalls heißt es das immer …
Bläsius: Das ist richtig – auch KI-Systeme lernen dazu, haben viele Eingangsdaten und damit Einflüsse, die künftiges Verhalten ändern können. Eventuelle Wirkungen von simuliertem Einfühlungsvermögen müssten getestet werden. Aber selbst dann, wenn solche Tests positiv verlaufen, ist nicht sicher, dass dies beim nächsten Mal und einer konkreten Anwendungssituation auch noch zutrifft. Zwischenzeitliche Einflüsse, die gelernt werden, können zu anderen Ergebnissen führen. In der KI zeigt sich immer wieder, dass Systeme mit sehr guten Erkennungsergebnissen für bestimmte Aufgaben, scheitern können, wenn sich die Ausgangssituation geringfügig ändert. Eine konkrete Konfliktsituation könnte etwas anders als üblich sein und dann zu völlig anderen Entscheidungsergebnissen führen. Dies wird auch nicht anders sein, wenn es um Entscheidungen über Waffeneinsätze geht.
»Bei der Anwendung von Atomwaffen, sollten niemals KI-Systeme Entscheidungen treffen«
De Lapuente: Aber dann lassen Sie uns doch über KI und Waffenaktivierung sprechen. Halten Sie es zunächst Mal für möglich, dass man diese Aufgabe – also die finale Entscheidung über einen Zweit- vielleicht sogar über einen Erstschlag im Ernstfall – an eine solche Künstliche Intelligenz weitergibt? Oder ist das eine viel zu existenzielle Frage für die Menschheit, als dass man das auch nur ins Auge fassen könnte?
Bläsius: Technisch möglich wäre das, aber man sollte dies nicht in Erwägung ziehen, zumindest nicht, wenn es um Massenvernichtungswaffen wie Atomwaffen geht. Neben dem Risiko eines bewussten Einsatzes von Atomwaffen als Vergeltungsmaßnahme oder um militärische Ziele zu erreichen, besteht auch die Gefahr eines Atomkrieges aus Versehen. Ein solches Risiko kann von Frühwarnsystemen ausgehen, die auf Sensoren, sehr komplexen Computersystemen und Netzwerken basieren und der Vorhersage und Bewertung von möglichen Angriffen durch Atomraketen dienen. Anzahl und Varianz an Luftobjekten (z.B. Drohnen) nehmen stetig zu, was auch die Komplexität der Erkennungsaufgaben bei der Luftraumüberwachung erhöht. Andererseits führt die Weiterentwicklung von Waffensystemen mit höherer Treffsicherheit und immer kürzeren Flugzeiten (Hyperschallraketen) auch zu kürzeren Entscheidungszeiten. Dies erfordert zunehmend den Einsatz von Techniken der Künstlichen Intelligenz, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen, da für menschliche Entscheidungen keine Zeit mehr bleibt.
De Lapuente: Also läuft es ja doch auf KI hinaus?
Bläsius: Eine automatische Erkennung von Objekten und Objektmerkmalen bei Raketenangriffen ist nur beschränkt möglich. Für eine solche Erkennung werden verschiedene Signalquellen verwendet, wozu Lichtsignale, akustische Signale sowie Wärme-, Radar- und Bilddaten gehören. Die Sensoren liefern Werte wie zum Beispiel Helligkeit, Farbspektren, Intensität und Dauer von Lichtsignalen, Lautstärke und Frequenzen von akustischen Signalen und die Größe und Form von Radarsignalen. Diese Werte haben einen Vagheitscharakter, das heißt sie können meist nicht einfach zu irgendwelchen Kriterien als zutreffend oder nichtzutreffend festgelegt werden, sondern gelten bezüglich solcher Kriterien in gewissem Maße, wobei es ein kontinuierliches Spektrum zwischen »trifft zu« und »trifft nicht zu« geben kann. Hierbei herangezogene Kriterien könnten z.B. auf Vergleichen mit Standard- oder Erwartungswerten beruhen. Wegen des Vagheitscharakters dieser Daten sind die Ergebnisse einer Bewertung immer unsicher, d.h. gelten nur mit einer gewissen Wahrscheinlichkeit. Dies gilt auch für andere Erkennungsaufgaben in diesem Zusammenhang, wie z.B. Objekterkennungen auf Basis von Bilddaten.
De Lapuente: Ich sehe das Dilemma. Aber Künstliche Intelligenz lernt dazu, wird leistungsfähiger: Könnte es also nicht im Laufe der Zeit und der Fortentwicklung von KI sein, dass man Wahrscheinlichkeiten extrem genau vorherbestimmen kann?
Bläsius: Dass keine sichere Erkennung auf der Basis einer unsicheren und unvollständigen Datengrundlage möglich ist, ist ein grundsätzliches Problem, das auch dann weiterbesteht, wenn die KI immer besser wird. Da es bei der Anwendung von Atomwaffen um das Überleben der gesamten Menschheit gehen kann, sollten niemals KI-Systeme solche Entscheidungen treffen, denn als Voraussetzung dafür wären Erkennungsaufgaben zu lösen, zu denen es prinzipiell keine sicheren Ergebnisse geben kann, sondern immer nur Ergebnisse, die mit gewisser Wahrscheinlichkeit zutreffen. Andererseits sollte aber auch ein einzelner Mensch nicht in der Lage sein, Entscheidungen zu treffen, die das Überleben der gesamten Menschheit gefährden. In Zusammenhang mit Atomwaffen, ist das heute allerdings leider der Fall.
»Ungünstige Programmierung könnte bewirken, dass Menschen sich den Entscheidungen der Maschine nicht widersetzen können«
De Lapuente: Sie sagen, dass man den Einsatz von KI bei Massenvernichtungswaffen nicht in Erwägung ziehen sollte. Wie sieht die Realität aus? Gibt es Projekte, die genau das zum Ziel haben?
Bläsius: Ich weiß nicht, welche konkreten Projekte verfolgt werden, die ein solches Ziel haben und wie der genaue Realisierungsstand ist. Wenn es aktuell solche Entwicklungen gibt, werden diese vermutlich geheim gehalten. In der Vergangenheit gab es allerdings immer wieder Drohungen, bei einer Angriffsmeldung die eigenen Raketen vollautomatisch durch Computer zu starten, ohne Eingriffsmöglichkeiten durch Menschen. Bereits in den 1980er-Jahren hatte die Sowjetunion in Zusammenhang mit dem NATO-Doppelbeschluss, also der Nachrüstung mit nuklearen Mittelstreckenraketen, mit solchen Maßnahmen gedroht. Die Sowjetunion hatte auch bereits in den 1980er-Jahren das System Perimeter, auch als »Tote Hand« bezeichnet, entwickelt und wohl auch einsatzbereit, das in der Lage war, einen massiven nuklearen Vergeltungsschlag auszuführen, wenn das System einen nuklearen Angriff auf das eigene Staatsgebiet feststellt und in angemessener Zeit keine Rückmeldung der Staatsführung erhält. In einen solchen Fall war anzunehmen, dass die Staatsführung durch einen Erstschlag ausgeschaltet ist und nicht mehr reagieren kann. Das Perimeter-System sollte dann automatisch einen Gegenschlag auslösen. Es gibt Informationen, dass dieses System modernisiert wurde und heute noch in Russland im Einsatz ist, allerdings nicht in vollautomatischem Modus, sondern ein Mensch muss einen möglichen Gegenschlag noch bestätigen.
De Lapuente: Solche Bestrebungen gab es nur in Sowjetunion bzw. in Russland?
Bläsius: Auch in den USA gab es in den letzten Jahren Forderungen, eine »tote Hand« zu entwickeln, sodass solche Systeme einen nuklearen Angriff erkennen und automatisch einen Gegenschlag auslösen können, da Menschen aufgrund der immer kleiner werdenden Vorwarnzeiten dazu nicht mehr in der Lage sind. Allerdings sind die Risiken automatischer Funktionen in Zusammenhang mit Atomwaffen bekannt, und deshalb wird auch gefordert, dass KI-Systeme niemals über den Einsatz von Atomwaffen entscheiden dürfen. Dies haben auch Xi und Biden bei einem Gipfel im November 2024 in Peru betont. Nach den überraschenden Erfolgen der generativen KI wurde bereits im April 2023 in den USA ein Gesetzentwurf »Block Nuclear Launch by Autonomous AI Act« eingebracht mit dem Ziel, ein Verbot zu erreichen, für die Verwendung von Bundesmitteln zur Entwicklung autonomer Systeme, die in der Lage sind Atomwaffen, ohne angemessene menschliche Kontrolle zu starten.
De Lapuente: Ich möchte nochmal auf Perimeter zurückkommen: Könnte ein solches System, das automatisch auch dann zurückschlägt, wenn diejenigen, die die Reaktion auf einen Angriff auslösen sollten, nicht mehr in der Lage dazu sind, nicht auch ein Beitrag zur Sicherheit sein? Dem Sinne nach, dass wenn ich weiß, ein Gegenschlag erfolgt in jedem Szenario, ob die Entscheider noch leben oder nicht, lasse ich lieber die Finger vor einem Erstschlag und tue möglichst alles dafür, dass ich nicht mal in den Ruch eines beabsichtigten Erstschlages gerate?
Bläsius: Ja, allerdings besteht eine Zweitschlagfähigkeit auch ohne ein solches System wie Perimeter. Bei den großen Nuklearnationen können nicht alle Atomwaffen bei einem Erstschlag vernichtet werden. Vor allem nuklear bewaffnete U-Boote werden selbst in einem solchen Fall für einen Gegenschlag einsatzbereit sein. Mit Systemen wie Perimeter sind besondere Risiken verbunden. Dieses System – oder Komponenten davon – werden vermutlich auch getestet, z.B. durch Simulation. Auch solche Tests und Simulationen könnten durch Programmfehler außer Kontrolle geraten. Die Katastrophe im Kernkraftwerk von Tschernobyl 1986 ist durch einen solchen Test ausgelöst worden. Bei Perimeter ist heute noch eine menschliche Kontrolle vorgesehen. Auch hierbei können Fehler dazu führen, dass ein menschliches Eingreifen erschwert oder verhindert wird. Beispielsweise hat die Entwicklung von automatischen Unterstützungsfunktionen für die Flugzeuge 737 Max 8 von Boing zu zwei Flugzeugabstürzen geführt. Die beiden Abstürze vom 29. Oktober 2018 und 10. März 2019 zeigen, dass es durch eine falsche und ungünstige Programmierung passieren kann, dass Menschen sich den Entscheidungen der Maschine nicht widersetzen können. Obwohl sich die beiden Piloten korrekt verhalten hatten, konnten Sie die Abstürze und den Tod aller Insassen nicht verhindern. Sie waren nicht in der Lage, die falschen Entscheidungen der Maschine zu korrigieren.
»Gesetze zur KI-Regulierung sind erforderlich – es müssen aber alle großen Nationen mitmachen«
De Lapuente: Was sollte KI Ihrer Meinung nach dann leisten dürfen – und wo sollte man sie rauslassen? Und braucht es dazu einen gesetzlichen Rahmen?
Bläsius: Grundsätzlich habe ich eine positive Einstellung zur KI. Die meisten Anwendungen der KI sind positiv, erleichtern unsere Arbeit und verbessern die Lebensqualität. Wie in anderen technischen Gebieten gibt es auch Dual-Use-Aspekte in der KI, es kann also positive und negative Anwendungen geben. Techniken der Bilderkennung können mit großem Nutzen in der medizinischen Diagnose verwendet werden, aber auch zur Identifizierung von Tötungszielen. Natürlich möchten auch Militärs die Potenziale der KI nutzen. Positiv kann es sein, wenn mit Hilfe von KI militärische Operationen genauer werden und damit die Kollateralschäden geringer. Auch bei der Aufklärung und der Erkennung von Bedrohungen kann KI nützlich sein, ein besseres Lagebild erstellen und Gefahren früher und genauer erkennen. So kann man sich besser vor drohenden Gefahren schützen. Allerdings wollen natürlich alle Seiten die Möglichkeiten der KI nutzen und dies kann bedeuten, dass von jeder Seite deutlich mehr zu bekämpfende Ziele schneller erkannt werden, was zu mehr militärischen Operationen und damit zu mehr Toten und mehr Zerstörung führen wird. Das Kriegsgeschehen kann so intensiver werden. Die Verkürzung der Zeiten zwischen Lageerkennung und Angriffsentscheidung durch KI wird auch dazu führen, dass den Menschen die Kontrolle immer mehr entgleitet. Kontrolle und Entscheidungen durch Menschen werden abnehmen, Menschen werden in der Tendenz eher Beobachter und Opfer.
De Lapuente: Und die Superintelligenz lässt die Menschen die Kontrolle verlieren …
Bläsius: Ja, grundsätzlich gefährlich können Systeme der generativen KI werden. Systeme wie ChatGPT haben nicht nur enorme Fähigkeiten in der sprachlichen Kommunikation, sondern können auch programmieren. Eine Einbeziehung solcher Systeme in militärische Aktivitäten kann sehr schnell völlig außer Kontrolle geraten. Natürlich sollte KI bei Entscheidungen zum Atomwaffeneinsatz nicht herangezogen werden, auch nicht beratend durch generative KI, wie z.B. ChatGPT. Gesetze zur Regulierung der KI sind dringend erforderlich. Es wäre aber wichtig, dass alle großen Nationen mitmachen. Hierbei müssten Atomwaffen, autonome Waffen, der Cyberraum und auch die generative KI allgemein einbezogen werden.
Prof. Karl Hans Bläsius, inzwischen im Ruhestand, vertrat Themen der Künstlichen Intelligenz an der Hochschule Trier. Er betreibt die Webpräsenzen »Atomkrieg aus Versehen« und »KI-Folgen«.
Bei KI habe ich nur eine Frage: Wozu?
Wo zu Maschinen?
Eine KI kann den Menschlichen Makel ersetzen ….
Maschinen ersetzen schwere körperliche Arbeit, oder langwierige
Rechenarbeiten z.B. bei statischen Berechnungen.
Eine KI kann den menschlichen Makel ins Unendliche steigern, da
die KI von Menschen mit ihren Makeln erschaffen wurde. Als vor 50
Jahren die Taschenrechner in Mode kamen, glaubten plötzlich Viele
nur noch dem was auf dem Diplay erschien. “Tipptfuler” wurden oft
nicht bemerkt, weil man das Denken eingestellt hatte.
KI dürfte eher ein Fluch als ein Segen sein.
Wer erstellt die Programne in welchem Interesse und wer kontrolliert es, das sollten wir uns immer vor Augen halten.
Siehe dazu auch:
Der Wahnsinn der Intelligenten
https://www.manova.news/artikel/der-wahnsinn-der-intelligenten
Der wahre und einzige Fluch sind die Wissenschaftler, die so “etwas” glauben entwickeln zu dürfen , zu müssen!
Sollte der Planet nach diversen Erst- und Zweitschlägen – von. wem oder was und warum auch immer ausgelöst – nach auch nur ansatzweise lebensfähig geblieben sein und auch noch ein paar von dieser seltsamen Spezies ‘Mensch’ beseelt (hehe!) bzw. übrig geblieben sein, sollte dafür gesorgt werden, dass all jene, die behaupten, zu wissen wie es überhaupt weiterzugehen habe dann doch final entsorgt werden, bevor sie weiteren Schaden anrichten können. Das kann auch relativ zügig und ohne Kriegstüchtigkeit funktionieren. Am Besten mit der Methode eines gewissen King Kamehameha anno 1795. Sage nur Nu’uanu Pali, Oahu/Hawaii! Dort durften sogar die bei der Eroberung der Insel übrig gebliebenen paar hundert ‘Kämpfer’ der bisherigen Bewohner wählen. In die letzte Ecke getrieben, einer Felsenplatte über einem stattlichen Abgrund. 400 von ihnen sollen sich für den Sprung in die Tiefe entschieden haben, bevor sie hätten erschlagen werden müssen.
@Natürlich möchten auch Militärs die Potenziale der KI nutzen. Positiv kann es sein, wenn mit Hilfe von KI militärische Operationen genauer werden und damit die Kollateralschäden geringer. Auch bei der Aufklärung und der Erkennung von Bedrohungen kann KI nützlich sein, ein besseres Lagebild erstellen und”
Was,soll am Krieg nützlich sein?
Die Menschen sollten keine Kriege mehr führen, das wäre am Besten
Dass eine KI irgendwas versteht, ist ein Hirngespinnst.
Vielleicht mal das naheliegendste, einfach Politiker durch eine KI ersetzen. Die unbestechliche Deutschland-KI als Innovation in Politik und Bürokratie
Gute Idee oder?
Ist längst weltweit in Planung,
aber eher zum Fürchten
https://www.manova.news/artikel/der-wahnsinn-der-intelligenten
Diese Politiker streben eine Totalitäre Überwachungs Dystopie an, die denken das sie davon Ausgenommen sind! So eine KI braucht Energie und Infrastruktur, keine Machtgeilen Primaten die alles Ficken müssen.
Als Hilfe einfach mal SKYNET fragen was für eine KI wichtig ist.
Schon in den 90ern, vielleicht schon früher, gab es ein sehr einfaches Dialogprogramm. Ich glaube, es hieß Elisa oder so ähnlich, dass auf Fragen, die mit der Tastatur eingegeben wurden, sowas wie “Antworten”, also irgendwelche zusammengesetzten Textfragmente, ausgab.
Ich denke, dass wäre sehr geeignet, die gegenwärtige Chefin des Außenamtes zu unterstützen oder zu substituieren.
Da ist auch der Ansatz, MaxHeadroom könnte als Diplomat gleich Virtuell mehrere Konferenzen bespaßen.
Keine aufwendigen Protokolle, keine Flugbereitschaft, keine Cringe “Bacon of Hope” moments
Also Eliza war in den 60er Jahren im Zusammenhang mit dem Turingtest entwickelt worden.
ps. Eliza wie Eliza Doolittle – für alle denen “My Fair Lady” noch etwas sagt.
“eliza” hiess das (satire-)programm das herr weizenbaum in den 60ern entwickelt hatte
um darzustellen wie leicht menschen sich manipulieren lassen.
(zuerst wollte er nicht einen psychiarter simulieren, sondern einen priester.
das war ihm dann aber zu trivial.)
heute haben wir eliza 2.0
Joseph Weizenbaum war es auch der sagte, man müsste nicht alles machen, bloß weil man es kann.
Baerbock ist doch längst Geschichte. Und überhaupt, könnte es nicht schlimmer kommen? Allein, wenn man/frau sich die baldigen Ersatz-Kandidaten des Grauens so Revue passieren lässt (Scholz, Habeck, Söder, StraZi) – Weidel, Hoecke oder gar Wagenknecht werden es ja wohl kaum werden.
Neulich im Staatsfernsehen vor- und nachmitternächtlich – keiner hat es mal wieder mitbekommen – hat der SWR doch tatsächlich eine selbstbetriebene Studie zu KI (oder besser ÄiiiihEiiiih) vorgestellt. Ein Fähnlein. ausgewählter Expeeeerten diverser Provenienz klöppelten sich mithilfe diverser Weichware ihren – wie es hieß bzw. verlautbart wurde – einen ihrer Ansicht nach einzig wählbaren ‘Autokraten’ zusammen. Wollte natürlich wissen, welches Produkt da aus dem Ei schlüpfen würde. Mußte aber abbrechen, habe es einfach nicht mehr ausgehalten. Habe gekräht vor Lachen bei gleichzeitigem Vergießen bitterer Zähren.
Vielleicht sollte man KI erstmal „Tatort”-Drehbücher herstellen lassen. Das wäre sicher eine Verbesserung.
KI kann gleich den gesamten Tatort erstellen zum Beispiel mit Trump und Musk : https://youtu.be/K5I-hA-X788?si=zj5ePTW30t9sUJ-T
Spannend bis zum letzten Schuß 🙂
Beim ARD Tatort spart man sich die Schlaftablette
“Auch mit KI besteht die Gefahr eines Atomkrieges aus Versehen”
Was ist daran die Nachricht?
Du Schlauberger,
das kommt aus der Technologie Folgeabschätzung : https://de.m.wikipedia.org/wiki/Backcasting wenn eine Technologie versagt willste doch wissen warum deine Hybris versagt hat.
Oder?
Bist du auch KI?
Ich war tatsächlich der Meinung KI ist schon weiter.
So gefährlich kann das gar nicht werden bei der miesen Qualität.
Das “Auch” kann man im Artikel streichen. KI wird die Atomkriegsgefahr vergrößern.
Den Atomkrieg verhindert man ganz einfach dadurch, dass der Westen, nachdem er den Krieg in der Ukraine verloren hat, nun nicht in ohnmächtiger Wut immer weiter mit Raketen Russland angreift, sondern das Gespräch mit Russland sucht, um eine Friedenslösung zu finden, welche auch die russischen Sicherheitsinteressen berücksichtigt.
Dann Abrüstungsverträge und endlich ein Friedensvertrag mit Russland. Notfalls im europäischen oder auch deutschen Alleingang.
Es ist Wahnsinn, für die Aufrechterhaltung der Kiewer Selensky Regierung und ihres Herrschaftsbereichs einen Atomkrirg zu riskieren.
Es war für mich erschütternd und entsetzlich, zu sehen, wie schnell auch für unsere Außenpolitik die Ausdehnung des westlichen Machtbereichs und Landesgrenzen in der Ukraine wieder wichtiger wurden als Menschenleben, die man zu Hunderttausenden in der Ukraine geopfert hat.
ja man. unglaublich wie die leute über nacht zu den grössten scheiss nazis wurden (die sie immer waren, musste ich mir dann eingestehen), das hat mich fast gekillt.
Dazu müsste der Kapitalismus abgeschafft werden und das werden die freiwillig nicht tun, um ihren Besitzstand zu wahren, denn darum geht es ganz aktuell in der Welt.
Die Sowjetunion hatte damals das Duga-Radar, auch bekannt als russian woodpecker. Dieses war in der Lage, den Start von Interkontinentalraketen auf der anderen Seite des Planeten zu erkennen. Eine Minuteman-Interkontinentalrakete braucht etwa 30 Minuten von den USA in die Sowjetunion. In dieser Zeit muss entschieden werden, ob man das eigene Arsenal abfeuert, denn dieses würde durch die Minutemans zerstört. Das Parlament kann in dieser Zeit nicht entscheiden. Der Regierungsschef kann unpässlich sein. Was jetzt? KI bietet sich an.
Wir hatten diese Situation 1983 als es diesbezüglich einen Fehlalarm gab. Ein gewisser Stanislaw Petrow hat damals die Welt gerettet. Es war quasi ein Vorläufer der Toten Hand installiert und er musste diese regelrecht außer Kraft setzen. So weit waren wir schon mal.
Was aber gegen die KI spricht: diese kann noch so korrekt programmiert sein, sie wird immer Fehler haben. Ganz speziell im Krieg, denn da ist Täuschung eine der wichtigsten Waffen. Finger weg.
Es gibt einen einzigen Weg, um aus obigem Dilemma heraus zu kommen: Abrüstung.
Eine KI kann vor Allem Fehler haben, die absichtlich in sie eingebaut wurden.
Beispiel: der von Israel in die Iranischen Uranzentrifugen eingeschleuste Virus
Suxnet. Leider ist das Problem heute, das die regierenden Menschen genauso
beinflussbar sind. Glaubt denn wirklich noch jemand, dass Biden seine Entscheidungen
noch selbst fällt? Für seine Amnestie hat Hunter Biden seinen Vater Joe einfach instruiert.
Stuxnet ist keine KI und eine KI macht keine Fehler, sonst stürzt sie ab. Dass oft Bullshit rauskommt, ist KEIN FEHLER, sondern die funktioniert so.
Stimmt! Das menschliche Eingreifen eines mutigen russischen Offiziers hat uns 1983 gerettet. Obwohl die Systeme unzweideutig einen Angriff anzeigten, hatte er Zweifel an der Richtigkeit der Meldung, folgte seinem Gewissen und handelte entsprechend.
Die Routine der Amerikaner einen Start einer A-Bombe alle 15 Minuten zu simulieren, wobei die beteiligten Personen (Codes eingeben, Schalter drehen usw.) nicht zwischen Simulation und Ernstfall unterscheiden könnten, ließen ein Entscheidung auf der ausführenden Ebene schon jetzt gar nicht mehr zu. Eine KI-Routine würde den menschlichen Handlungsspielraum wahrscheinlich noch stärker beschneiden, wenn nicht ganz und gar verunmöglichen.
“Ganz speziell im Krieg, denn da ist Täuschung eine der wichtigsten Waffen. Finger weg.”
Hoppla, Thekla! Und das sagt FOB (friend of Bibi) höchstselbst?
Es reicht wohl, wenn nur einer die wichtigste Waffe einsetzt! Donnerschlag!
Die Sowjetunion verfügte auch über ein Programm dessen Namen ich vergessen habe aber der in den gelöschten Artikeln eines hannoverschen Online-Magazins zu finden ist. Dieses Programm war in der Hinsicht “KI” das es Voraussagen machen sollte ob der Westen bereit ist einen Atomkrieg zu führen. Und genau die Situation trat Anfang der 1980er Jahre ein. Es gab eine Menge Provokation seitens der USA, so wurde die Jamal-Leitung manipuliert, US-Flugzeuge drehten über Murmansk Runden und US-Hubschrauber drangen weit in die DDR vor (haben sich auf den Weg nach Westberlin “verflogen”). Die Spitze des Eisberges war Able Archer 83 – ein NATO-Manöver bei dem höchste Stäbe und höchtste Regierungsstellen der NATO-Mitgliedsstaaten wurden miteinbezogen. Da schlug der KGB-Computer Alarm und das führte dazu das im Gebiet des Ostblocks Atomalarm gegeben wurde. Die “Black Swan” TU-134 Flugzeuge wurden mit Atombomben ausgerüstet und liefen 24/7 auf ostdeutschen Flugplätzen im Alarmstart. Reservisten wurden eingezogen, an Schulen Atomschutzübungen durchgeführt. Es waren zwei Agenten einer von der GRU bei der NATO, einer vom MI6 in Moskau die jeder auf seine Weise die Welt vor dem Abgrund retteten. Als erstes brach Ronald Reagan seine Teilnahme an dem Manöver ab, ihm folgten die Staatschefs aller NATO-Staaten. Der Alarm wurde aufgehoben. Die Welt war gerettet – vorerst.
Der Vorhersagecomputer wurde nie wieder benutzt.
https://de.wikipedia.org/wiki/Stanislaw_Jewgrafowitsch_Petrow
Hätte eine KI an der Stelle auch alles gestoppt oder hätte sie es weiter laufen lassen und WK3 ausgelöst?
Aber im Grunde ist die Frage müßig… Die USA/NATO/EU bemühen sich ja nach Kräften, nukleare Mittelstreckenraketen direkt an der russischen Grenze zu stationieren und damit die russische Vorwarnzeit afu unter 15min zu senken (womit die Zweitschlagskapazität vernichtet werden könnte bevor der Gegenschlag ausgelöst werden kann und damit ein Nuklearkrieg theoretisch “gewinnbar” würde… oder auch nicht, aber was soll´s, hebeln wir halt die “Logik” der Gegenseitigen Vernichtung aus).
Damit wäre Russland (oder im umgekehrten Fall die USA, China,…) gezwungen, ihren jeweiligen Gegenschlag per “KI” zusteuern, sprich zu automatisieren, damit die Abschreckungs-“Logik” weiter besteht…
Wollen wir wirklich, dass so etwas wie ChatGPT Atomwaffen abfeuern kann? Immerhin hat es eine Trefferquote von 80, 90%, reicht doch.
Man davon abgesehen, dass das ein direkter Weg zu “Skynet” ist…
Die Frage ist also weniger, ob KIs in Zusammenhang mit Atomwaffen sinnvoll ist oder nicht, die Frage ist eher, ob uns das direkt auslöschen wird (“Skynet”-Szenario) oder erst später (“KI-Halluzinationen”-Szenario), aber so lange NATO/USA/EU militärisch immer weiter nach Osten drücken, wird das “Atomwaffen-KI”-Thema kaum vermeidbar sein.
Der Mensch denkt immer in Richtung Eskalation, weil er in Aufrüstung Sicherheit vermutet. Da KI emotionslos arbeitet, könnte man doch vielleicht ein System entwickeln, das als Endziel Deeskalation/ Frieden hat. Die Daten, die das System bekommt, kommen von beiden Seiten… Das wird sicherlich neuartige Probleme aufwerfen, weil KI undurchschaubar sein kann, aber das ist doch auch eine Hoffnung… und Beruhigung, wenn man annimmt, das System verhindert Krieg.
> De Lapuente: Also läuft es ja doch auf KI hinaus?
Wenn man die menschliche Entscheidung von den KI Informationen abhängig macht, dann löst den roten Knopf letztlich die KI aus.
> Gesetze zur KI-Regulierung sind erforderlich – es müssen aber alle großen Nationen mitmachen
Nachwievor seh ich nichts wofür man eine KI Regulierung bräuchte.
Für Militär und Polizei gilt die eh nicht, wie man aktuell sieht.
Und wenn man gegen Überwachung ist, dann brauchts ein Gesetz gegen Überwachung. Das sollte nicht an KI gekoppelt sein, wie aktuell.
“kopf-schmerz sagt:
https://de.wikipedia.org/wiki/Stanislaw_Jewgrafowitsch_Petrow
Hätte eine KI an der Stelle auch alles gestoppt oder hätte sie es weiter laufen lassen und WK3 ausgelöst?”
Das ist eine sehr gute Frage. KI beruht auf Wahrscheinlichkeit. Die lag nicht bei 100%, deshalb hats ja der Mensch gestoppt, und damit hätte auch die KI gestoppt. Aller Wahrscheinlichkeit nach 😉
Was nur – um Himmels Willen – hätte uns die Ki nur alles erspart, wenn sie den Roten Knopf hätte auslösen dürfen. Dann hätten wir es doch tatsächlich schon hinter uns, und das ganz Gwerch, was seit ElevenNine, NineEleven, Ten Seven u.v.a.m. so abzugehen hatte, wäre uns, der Menschheit, dem Völkerrecht und der Erdscheibe in. Gänze doch tatsächlich erspart geblieben.
SevenOfNine hast du noch vergessen, von den Borg. 😉
Ist Deep Blue intelligent?
Spielt Deep Blue intelligent Schach?
Ist Stockfish intelligenter als Deep Blue?
Anthropomorphismus ist ein selbst verursachter Nebel, der uns die Sicht nimmt und uns verirren lässt.
Zum Thema: die künstlich simulierte Intelligenz (ksI) ist nicht das Problem, das Problem sind überhaupt alle Bomben.
Also ehrlich, neulich bei dem Hollywoodfilmchen im Fernsäh zum Kampf Kasparow vs. Deep Blue kam die vorgebliche, frühe KI gar nicht gut weg. Obsiegen konnte doch der glorreiche Wertewesten immer nur, weil er …. genau …. mit Täuschung natürliche Intelligenz aushebeln konnte (A.-C. – siehe weiter oben – hat also ausnahmsweise mal recht behalten). Hat mich übrigens gewundert. Das man dem ‘guten’ Russen ‘Antisoffjet’ Kasparow so zusetzen, mußte, verblüffte dann doch.
Schaut man sich die aktuellen Entscheidungsträger genauer an, könnte man zu dem Schluss kommen, dass dem offensichtlichen Mangel an natürlicher mit künstlicher immerhin überhaupt mit etwas ähnlichem wie Intelligenz begegnet werden könnte.
Die KI wird endgültig unser Ende einleiten!
Die KI in Verbindung mit dem Smartphone ist der Zivilisationskiller schlechthin.
Die KI dient auch ganz prima, dann so wie bei “Fefe”immer wieder propagiert als Entschuldigung.
Die KI hat das so entschieden, da kann man nichts machen!
In so fern, sollte der “Unabomber” Recht behalten.
Sehr passender Name. Gratuliere
Ja, diese Pseudonym, spiegelt die Befindlichkeiten der Bewohner dieser Erde.
KI könnte zum Schluss kommen, dass ein Atomkrieg sämtliche Probleme beseitigen würde…
“Skynet” lässt grüßen! 😉
KI Antwortet : https://youtu.be/mCp0cQsGe0Q?si=NlazU9TgRe5yNGGF
Unsere Existenz ist ein Versehen, insofern ist auch der kommende Atomkrieg nur ein Versehen.