„Moral kann nicht an Maschinen outgesourct werden“

Hal9000 aus Kubricks Space Odyssey. Bild: Cryteria/CC-BY-3.0

Nach einer Umfrage lehnt noch eine große Mehrheit in den meisten Ländern autonome Waffensysteme ab. Es geht um Moral, die angeblich nur Menschen haben können.

 

Man muss davon ausgehen, dass es autonome Waffensysteme bald geben wird. Sie sind die einzige Möglichkeit, wie etwa Hyperschallraketen oder -drohen von Abwehrsystemen pariert werden können. Auch gegen Drohnenschwärme oder andere Schwärme von Waffensystemen wird man nur die Chance einer Verteidigung durch KI haben. Menschliche Entscheidungen würden viel zu lange dauern, alles muss wie an der Börse in Millisekunden und in Reaktion auf die Systeme des Gegnern ablaufen. Menschen sind bestenfalls noch Zuschauer, wenn die von ihnen losgelassenen autonomen Systeme gegeneinander antreten.

Erst kürzlich hat National Security Commission on Artificial Intelligence, geleitet vom ehemaligen Google-CEO Eric Schmidt, in einem Bericht an den Kongress argumentiert, unbedingt für die nationale Sicherheit autonome Systeme zu entwickeln. Entsprechende KI-Systeme würde dem Militär helfen, schneller und effizienter die Lage zu erkennen und zu verstehen und  zu entscheiden. Der Bericht sagt:

„Die Künstliche Intelligenz verspricht, dass eine Maschine schneller in einer komplexeren Situation und mit höherer Genauigkeit als ein Menschen erkennen, entscheiden und handeln kann. Das ist ein kompetitiver Vorteil auf jedem Gebiet. Das wird für militärische Zwecke, von Regierungen und nicht staatlichen Gruppen eingesetzt werden.“

Das ist ganz realistisch. Nicht für die USA, sondern auch für China und Russland, aber auch für andere Länder. Versuche, die Entwicklung und vor allem den Einsatz autonomer Waffensysteme zu verhindern, sind natürlich achtbar und können auch die Umsetzung hinauszögern oder einschränken, aber sicherlich nicht verhindern. Noch heißt es vom Pentagon, dass man zwar autonome Systeme auf vielen Ebenen entwickle, aber dass die letzten Entscheidungen noch Menschen treffen müssten.

Den Menschen ist die Entwicklung weiterhin unheimlich, den meisten zumindest. Weniger die Moral als die Angst dürfte dahinterstehen, wenn 61 Prozent der von Ipsos für die „Killer-Robots“-Kampagne von Human Rights Watch  in 28 Ländern Befragten die Verwendung von autonomen Waffensystemen ablehnen. 21 Prozent fänden dies gut, 17 Prozent habe keine Meinung. Gefragt wurde:

„Die Vereinten Nationen untersuchen die strategischen, legalen und moralischen Implikationen tödlicher autonomer Waffensysteme. Diese Waffensysteme wären in der Lage, unabhängig Ziele auszuwählen und diese ohne menschliche Intervention anzugreifen. Sie sind daher anders als die heutigen ‚Drohnen‘, bei denen Menschen Ziele auswählen und angreifen. Was sagen Sie zur Verwendung von solchen tödlichen autonomen Waffensystemen?“

In allen Ländern lehnt eine Mehrheit autonome Waffensysteme ab, nur in Indien ist eine knappe Mehrheit dafür. Bei einer ähnlichen Umfrage 2018 war dies in etwa auch so. Allerdings sagen 66 Prozent, autonome Waffensysteme würden eine moralische Grenze überschreiten, wenn sie Menschen töten. 24 Prozent meinen, sie sind illegal, 53 Prozent lehnen sie ab, weil sie nicht zur Rechenschaft gezogen werden können, und 42 Prozent, weil sie technischen Fehlern unterworfen sein können.

Die Ablehnung ist in Schweden mit 76 Prozent am höchsten, aber dicht gefolgt von der Türkei mit 73 Prozent, die Kampfdrohnen entwickelt hat und diese gnadenlos einsetzt. In Deutschland sprechen sich 68 Prozent dagegen aus, es sind aber auch 19 Prozent dafür. Fast 40 Prozent der Chinesen, 33 Prozent der Russen und 22 Prozent der US-Amerikaner würden autonome Systeme begrüßen. In Israel sprechen sich über 46 Prozent dafür aus.

In Ländern, in denen Kampfrohnen eingesetzt wurden wie Afghanistan, Irak oder Syrien wurde nicht gefragt. Da könnte die Ablehnung deutlich höher sein. Frauen lehnen autonome Waffensysteme eher ab als Männer, Ältere eher als Jüngere.

Die von HRW angeführte Kampagne fordert ein Verbot für die Entwicklung, die Herstellung und den Einsatz von autonomen Kampfsystemen (Killer Robots). Gelegentlich wird argumentiert, dass Roboter ethisch besser als menschliche Soldaten wären, weil sie so programmiert wären, die humanitären Gesetze einzuhalten. Aber autonome Waffensysteme könnten, so die Kritiker, „aufgrund des Fehlens von Emotionen und der Tatsache, dass Moral nicht an Maschinen outgesourct werden kann, eher illegale Befehle ausführen, wenn sie so programmiert sind“.

Aber wer sagt eigentlich, dass KI-Systeme keine Gefühle und keine Moral haben können? Menschen haben längst und wiederholt bewiesen, gerade auch wir Deutschen, dass man auf Moral oder Mitleid, Nächstenliebe etc. nicht zählen kann.

Ähnliche Beiträge: