Grundsätzlich herrscht keine Angst vor den Entscheidungen von den intelligenten Maschinen, deren Überlegenheit wird bei bestimmten Aufgaben als “algorithmische Wertschätzung” eingeräumt.
Es wird gerne die Angst vor Künstlicher Intelligenz bzw. Algorithmen geschürt, wenn sie menschliche Entscheidungsprozesse übernehmen sollen und dann nicht nur ebenso Fehler machen, nach Vorurteilen vorgehen oder womöglich “unmenschlich” handeln. Man traut angeblich den Menschen mehr als der “Maschine”, fürchtet aber Gleichzeitigkeit deren Überlegenheit, was der Philsooph Güther Anders als “Antiquitiertheit des Menschen” thematisierte, der eine “prometheische Scham” entwickle.
Deutlich wird dieses “Vorurteil”, wenn es um autonome Kampfsysteme geht. Noch sagt eine Mehrheit in vielen Ländern, dass sie autonome Waffensysteme ablehnen, es wurde allerdings nicht gefragt, welche traditionellen (Massenvernichtungs)Waffen sie ebenfalls ablehnen. Die Entwicklung geht allerdings ganz klar dahin, dass der Mensch, weil er schlicht zu langsam ist und zu wenig Information verarbeiten kann, durch Algorithmen ersetzt wird, die Kampfsysteme steuern, d.h. auch Menschen töten oder verletzten werden. Trotz Initiativen für ein internationales Verbot von autonomen “Killerrobotern” oder wie in Deutschland schon gegen die Aufrüstung von ferngelenkten Drohnen mit Waffen, ist der Zug wohl abgefahren.
Noch betont etwa das Pentagon, dass die letzte Entscheidung über den Kampfeinsatz von autonomen Waffensystemen weiterhin bei Menschen liegen soll, es weiterhin einen “human in the loop” geben soll. Der wird nicht nur bei Angriffen von Schwärmen von Hyperschall-Dronen und -raketen nicht mehr mithalten können, es stellt sich auch die Frage, warum es für das Opfer anders sein sollte, von einem Algorithmus als von einem Menschen, der schnell auf den Knopf drückt, beschossen oder getötet zu werden? Menschen können sich bekannterweise “unmenschlich”, grausam und mitleidslos handeln, ihre Mitmenschen foltern, quälen und massenhaft industriell töten (Warum ist es besser, wenn beim Töten im Krieg ein Mensch die letzte Entscheidung haben soll?). Es war kein Algorithmus, der für Auschwitz, den Abwurf der Atombombe über Hiroshima, für zahlreiche Massaker und Kriegsverbrechen ist.
Wissenschaftler der University of Georgia haben jedoch durch Experimente mit 1500 Teilnehmern festgestellt, wie sie in ihrer in Scientific Studies von Nature erschienenen Studie schreiben, dass in konkreten Fällen Menschen durchaus eher Algorithmen oder der KI vertrauen als ihren Mitmenschen. So wurden in einem Experiment 500 Versuchspersonen aufgefordert, auf Fotografien die Zahl der Personen in Menschenmengen abzuschätzen. Dazu wurden ihnen richtige Schätzungen gegeben, die angeblich von 5000 Menschen, die Weisheit der Masse suggerierend, oder von Computerprogrammen kommen, die anhand von 5000 Bildern trainiert wurden. Wenig verwunderlich gingen die Versuchspersonen davon aus, dass bei einer wachsenden, unübersichtlich werdenden Zahl von Personen auf den Fotografien eher das Computerprogramm in der Lage sein sollte, zutreffendere Antworten zu bieten, als eine Gruppe von Menschen oder gar man selbst.
Tatsächlich arbeiten Algorithmen bei analytischen Aufgaben meist zuverlässiger und richtiger. Hier empfinden die Menschen auch eine “algorithmische Wertschätzung”. Wir lassen uns von Navigationssystemen steuern, vertrauen Google, uns Wichtiges zu vermitteln oder uns als ausgelagertes Gedächtnis zu dienen, investieren Geld, das von Algorithmen angelegt wird, oder gegen mit Algorithmen auf Partnersuche. Ob wir uns ganz vertrauensvoll in ein autonomes Fahrzeug setzen würden, ist dann schon was anderes, wir trauen ja auch manchen Mitmenschen nicht, setzen uns aber in Flugzeuge, Züge, U-Bahnen oder Bussen, die von wildfremden Menschen gesteuert oder beaufsichtigt werden.
Vieles sei nicht rational, auch nicht die “algorithmische Aversion”, sagen die Wissenschaftler. Das hänge auch von Aufgaben und der geforderetn kognitiven Leistung ab. Wie in den Versuchen beoachtet werden konnte, steigt das Vertrauen in die Algorithmen mit der Schwere der Aufgabe. Man schätzt nicht nur die eigenen Kapazitäten als kleiner ein, sondern auch die der Mitmenschen. Tricksen könnte man daher auch, wenn man sagt, Ergebnisse seien von Algorithmen erzeugt worden, um mehr Vertrauen in sie zu schaffen. Die Kehrseite ist, dass Algorithmen stärker “bestraft” werden, wenn ihre Berechnungen als falsch erkannt werden, wie dies in einem Experiment untersucht wurde.
Am Ende der Studie überlegen die Wissenschaftler, wie man Algorithmen einbetten wollte, um Vertrauen in sie zu schaffen bzw. Misstrauen nicht aufkommen zu lassen. Es geht offensichtlich darum, den Einsatz von KI zu erweitern. Geldgeber war die US Army, wo es darum geht, das Misstrauen der Soldaten gegen autonome Systeme abzubauen, um Mensch-Maschine-Kooperationen zu fördern. Das Ziel sei es zu beobachten, “wie Menschengruppen und Maschinen Entscheidungen treffen, wie wir sie dazu bringen können, einander zu vertrauen, und wie das ihr Verhalten ändert”. Da es hierzu noch wenig Forschung gebe, habe man mit Grundsätzlichem begonnen.