Von der Black Box des Intellektuellen zu der von KI-Systemen

Der Soziologe Armin Nassehi über Künstliche Intelligenz, Ethik, Personsein und die Kontingenzformel Mensch

Sie hatten einmal gesagt, der Intellektuelle heute müsste eher ein Kybernetiker sein, sich also eher mit Codes, Algorithmen und Zahlen beschäftigen als mit der Schriftkultur. Intellektuelle waren immer verhaftet mit der Rede, wie wir dies auch gerade machen, aber auch mit der Schrift, mit der sie ihr Wissen weitergegeben haben. Wäre ein solcher Umbruch notwendig, wenn wir die Welt verstehen wollen, die zunehmend digitalisiert und von KI-Systemen reguliert und optimiert wird? Wir werden auch ganz buchstäblich in diesen Systemen wie in den autonomen Autos sitzen. Wer nicht versteht, was hier geschieht, könnte der neue Analphabet sein.

Armin Nassehi: Ich weiß nicht, ob ich die Formulierung so gebraucht habe. Ich habe mal über den Intellektuellen gesagt, er müsse ein Übersetzer unterschiedlicher Logiken sein. Das ist nah an der Kybernetik dran, an der Frage, wie man sich die Perspektivendifferenz in der Gesellschaft anschauen kann. Wir erleben zur Zeit, dass die Digitalisierung, wenn wir jetzt mal dieses riesige Wort nehmen, natürlich die Leittechnik unserer Zeit ist, die den Buchdruck abgelöst hat. Das bedeutet nicht, dass es keine Schrift mehr gibt, aber dass es lange Zeit braucht, bis man die Kulturbedeutung dieser Entwicklungen begreift. Dazu gehört u.a. die Frage, wem wir eigentlich Entscheidungen zurechnen, also nicht, wer entscheidet.

Die KI-Diskussion ist für mich viel zu ontologisch, wenn gefragt wird, ob die KI-Systeme entscheiden oder nicht. Manchmal weiß man gar nicht, ob das ein Skalierungsproblem oder ein Qualitätssprung ist. Mit Skalierung kann man schon viel an Qualität simulieren. Viel interessanter ist aber, ob wir wissen, wo die Datensätze herkommen. Wissen wir den Bias nicht der Entscheidungen, sondern der Datensätze? Wissen wir, wie wir Entscheidungen überhaupt zurechnen? Wissen wir eigentlich, dass eine KI, die nicht nur Muster in Datensätzen findet, sondern selbst entscheidet wie ein selbstfahrendes Auto, immer fehlerbehaftet sein muss, weil ein solches formales System niemals widerspruchsfrei mit sich selbst umgehen kann, weil es die Wahrnehmung der Welt über selbsterzeugte Daten erzeugen muss? Das ist ähnlich wie in unserem Bewusstsein.

Wenn man solche Fragen stellt, dann erscheint die Frage nach der Kulturbedeutung der KI ganz anders. In der Öffentlichkeit sind wir noch auf dem Niveau, dass wir uns homunculi vorstellen, die einen Intel-Prozessor im Kopf haben statt einem Gehirn. So einfach ist die Welt dann doch nicht aufgebaut. Das ist literarisch ganz hübsch, man kann auch Filme damit drehen, aber das ist nicht die Wirklichkeit. Die spannende Frage ist, was sich ändert im Hinblick auf Wertschöpfungsketten. Dass Daten so wertvoll sind, hätte man sich früher nicht denken können. Jetzt kann man verstehen, warum das so ist.

Aber dann stellt sich die Frage, warum wir immer noch über so einfache Dinge diskutieren wie informationelle Selbstbestimmung, wobei wir kybernetisch  längst wissen, dass die Information nicht bei mir ist und ich sie weggebe, sondern dass andere eine Information daraus machen, wenn ich Daten weggebe. Das schafft ganz neue Verhältnisse, für die das Rechtssystem, die Ökonomie und die politische Regulierung neue Formen schaffen müssen. Ich hatte letzthin das Vergnügen, mit der zuständigen EU-Kommissarin Margarethe Verstager zu diskutieren. Die Politiker diskutieren die Regulierung von Facebook und Co. so ähnlich, wie man vor einem halben Jahrhundert über die Montan-Industrie gesprochen hat. Es wird nicht gesehen, dass die Wertschöpfung nicht mehr stationär ist, dass Grenzkosten völlig anders aufgebaut sind, dass die Verantwortungsübernahme für die Folgen nicht mehr den Kausalitäten folgen wie in der klassischen Industriegesellschaft. Das müssen wir alles lernen.

Ihre Ausgangsfrage war nach dem Intellektuellen. Es ist eine wissenschaftliche Aufgabe, sich damit wirklich ernsthaft auseinanderzusetzen. In den Sozialwissenschaften sitzen wir immer noch an Technikfolgenabschätzungen. Das ist ja wichtig, aber das ist eine subalterne Position dieser technischen Revolution gegenüber, die man verstehen muss. Es geht darum, was wir eigentlich von dieser Wirklichkeit sehen. Früher war das der Intellektuelle, der so lange Sätze bilden konnte, dass man genau wusste, dass das aus mindestens sieben Büchern kommen muss. Es gab ein Weltwissen, das man abrufen konnte. Aber das Weltwissen wird zur Zeit anders geordnet. Das müssen wir lernen. Auch wenn man ganz einfach Standortpolitik macht, muss man fragen, was hier eine Digitalstrategie bedeutet. Für die deutsche Politik heißt das immer noch, dass es mehr iPads in den Schulen und in Niederbayern mehr Glasfaserkabel gibt. Das hat mit Digitalisierung nicht viel zu tun, das ist auf dem Niveau von Straßenbau.

Die Digitalisierung hat wahrscheinlich die Folge, dass nicht nur handwerkliche Tätigkeiten ersetzt werden, sondern auch geistige. KI kann beispielsweise wissenschaftliche Texte generieren, vielleicht auch Literatur. Tritt darüber nicht auch eine Veränderung der geistigen oder auch der wissenschaftlichen Kultur ein, wenn diese neuen digitalen Wissensproduzenten auftreten? Von diesen wissen wir auch nicht genau, wie da alles abläuft. Lernende Systeme sind eine Black Box, in die man nicht hineinschauen kann.

Armin Nassehi: Genau. Wir haben die Black Box des Intellektuellen immer sehr prämiert. Was in Menschen passiert, wissen wir auch nicht. Wir kennen Inputs und wir kennen Outputs …

Also bräuchten wir Psychologen oder Therapeuten für KI …

Armin Nassehi: Ja, das logische Problem der Psychologie besteht darin, dass man das, was im Kopf passiert, nur indirekt sehen kann. Selbst wenn man einen Oszillographen am Kopf anbringt, sieht man nicht, was in ihm stattfindet. Man sieht Daten. Das ist eigentlich eine schöne Parabel. Die Black Box gibt es also schon länger, wir halten nur die natürliche Black Box, die wir selber sind, für transparent, weil wir darüber Sätze sagen können. Über die KI-Black Box kann man noch nicht so viele Sätze sagen. Wir erwarten allerdings von den Black Boxes, dass sie Dinge tun, die wir nicht erwarten, sonst bräuchte man sie ja nicht.

Das Spannende ist, ich sagte es schon zuvor, die Zurechnungsfrage. Ich war vorletztes Jahr am CERN in Genf. Wenn dort Teilchen aufeinander geknallt werden, passiert etwas für kurze Zeit. Es sind inzwischen die Maschinen, die darüber entscheiden, bei welchen Prozessen es sich lohnt, sie wissenschaftlich anzuschauen. Ich habe einer Kommission der Deutschen Forschungsgemeinschaft angehört. Es ging um die banale Frage, ob die DFG bald nicht nur Wissenschaftler, sondern auch Techniker bezahlen darf, weil die die eigentliche Arbeit machen. Der technische Wahrnehmungsapparat macht ja die eigentliche wissenschaftliche Arbeit. Ich vereinfache das hier natürlich sehr. Jeder, der einmal mit einem statistischen Programm gearbeitet hat, wird festgestellt haben, wie viele Artefakte wir mit einer Clusteranalyse herstellen können.

Das wird Auswirkungen auf die Wissenschaft haben: Wo kommen die Fragen  bzw. die Hypothesen her, wie operationalisieren wir sie in Datensätzen, die nicht mehr von der Wissenschaft selbst produziert werden, sondern in der Gesellschaft anfallen, im Hinblick darauf, was dabei herauskommt? In der Öffentlichkeit werden etwa Prädiktionsmaschinen für das Rechtssystem diskutiert. In den USA wird das experimentell schon angewandt, um aus den Daten einer verurteilten Person zu schließen, wie wahrscheinlich es ist, dass sie wieder straffällig wird. Und dann wundert man sich, dass die gleichen Vorurteile, die in den Black Boxes von Richterinnen und Richtern sind, auch in den Black Boxes der Apparate sind. Das sollte eigentlich nicht verwundern, weil sie nur die Muster in den Daten erkennen, mit denen sie gefüttert werden. Deswegen muss man dann wieder feststellen, in einer paradoxen Situation zu sein, in der das Verhältnis von Black Box und Sichtbarkeit voraussetzungsvoll ist.

Wir sprechen von Technik noch immer, als wäre das ein Apparat, den man an- oder ausmacht, aber das geht weit darüber hinaus. Die Revolution, die zur Zeit stattfindet, ist tatsächlich, wie ich fast gesagt hätte, eine intellektuelle Revolution, zumindest eine, über die man auch außerhalb der Technikwissenschaften nachdenken muss und die man nicht einfach mit dem Hinweis abwehren, dass wir auch Sinnverstehen brauchen. Ich habe von Kybernetikern gelernt, dass die Hermeneutik, also die klassische Geisteswissenschaft schlechthin, die nach den Sinnstrukturen in den Texten sucht, eigentlich nichts anderes als Mustererkennung ist.

Ein Textkorpus zu erschließen, machen inzwischen Apparate gar nicht so schlecht. Das berühmteste ist das Systemprogramm des Deutschen Idealismus, man wusste nicht, ob es Schelling, Hölderlin oder Hegel geschrieben hat. Wahrscheinlich war es von Hegel. Herausgefunden hat man es an den Mustern des Schreibens. Theologen haben Jahrhunderte lang versucht, an Mustern in der Bibel herauszukriegen, ob ein Textstück zum Korpus gehört, also geoffenbart wurde von Gott oder nicht. Das hat man an Textstrukturen erkannt, also, wenn man so will, an Datenstrukturen. Das kennen wir schon und müssen es in die heutige Zeit übersetzen. Eine unheimlich spannende Aufgabe.

Wir haben schon das Thema angesprochen, dass es Systeme gibt, die autonom Entscheidungen treffen sollen. Autonome Autos werden, wenn sie einmal auf die Straßen kommen, ständig Entscheidungen treffen müssen, ob sie abbiegen, ein Auto überholen, bremsen, ein Tier überfahren sollen … Es gibt eine Vielzahl von Verhaltensmöglichkeiten, die beachtet werden müssen. Sie können nicht alle vorgegeben werden, sondern müssen auch im Fluss generiert werden. Ist es in diesem Kontext wichtig, so etwas wie eine Maschinenethik zu entwickeln, also eine Ethik, die man in die Systeme hineinpflanzt? Das hat auch mit Zurechenbarkeit zu tun.

Armin Nassehi: Die Frage kann man nur mit Ja beantworten. Sie mit Nein zu beantworten, würde schon ethischen Protest provozieren. Aber die Frage ist, was das heißt. Wenn Sie heute zum Kardiologen gehen und ein EKG gemacht wird, dann wertet das ein Algorithmus aus, der an vorliegenden EKG die Struktur lernt, um dann Anomalien feststellen zu können. Wenn Sie heute für eine Operation sediert werden, dann ist das Beatmungsgerät zwar kein selbst lernendes Gerät, aber es fällt in einem Regelkreis Entscheidungen, die vor kurzem noch ärztliche Entscheidungen waren. Diese Wirklichkeit ist also längst da. Wenn Sie in einem Airbus-Flugzeug sitzen, dann gibt es hier einen Rechner, der die Bewegungen des Joysticks des Piloten zunächst einmal umrechnet, um zu entscheiden, ob der das wirklich meint.

Das Zweite ist, Sie haben die Antwort quasi schon mitgegeben, dass es eine Zurechnungsfrage ist. Ab wann wird die Zurechnung eigentlich komisch? Eines der wichtigsten ethischen Hilfsmittel, die wir haben, ist die Kontingenzformel Mensch. Wenn Florian Rötzer mit dem Automobil jemanden totfährt und sicher ist, das nicht absichtlich gemacht zu haben, dann sagen wir, dass er halt nur ein Mensch ist. Das passiert Menschen, sie sind unaufmerksam, vielleicht hat er sich auf ein Gespräch vorbereitet, hat Alkohol getrunken oder sonst irgendetwas. Einer Maschine würden wir das so nicht zurechnen und sagen: Das ist ja nur ein Algorithmus oder eine Software von der Firma und nicht von der. Die Zurechnung funktioniert nicht. Bei der Ethik muss man immer fragen, wem man die Wirkung zurechnet, die man womöglich gar nicht hätte kalkulieren können.

Wo ist eigentlich die Fehlertoleranz, die automatisch in der KI auftauchen wird? Gödelsche Unvollständigkeitssätze sagen uns schon seit den 1930er Jahren, dass formale Systeme in sich immer unvollständig sein müssen, weil sie sich selber mitrepräsentieren müssen. Das ist eine Paradoxie, aus der man mathematisch nicht herauskommt. Wenn das so ist, dann muss man sich die ethische Frage stellen, wie viel Risiko wir dabei eingehen. Das gab es bei der Implementierung  von Technik immer. Wir wissen, dass in dem Automobilverkehr in diesem Jahr in Deutschland ungefähr 2500 Menschen zu Tode kommen werden. Da könnte man fragen: Wollen Sie verantwortlich für den Tod von 2500 Menschen sein? Eigentlich müsste man den Autoverkehr sofort stilllegen, wodurch man 2500 Menschenleben retten würde. Das wäre die Denkungsart, aber wir akzeptieren das, die Todeszahlen wurden ja auch reduziert. 1972 war, glaube ich, mit 25.000 das Jahr mit den meisten Verkehrstoten mit viel weniger Autos und in einem kleineren Land, weil die DDR noch nicht dazu gehörte.

Wenn wir anfangen, über die Ethik zu sprechen, müssen wir erstens fragen, wie können wir das zurechnen, und zweitens, welchen Schaden wir als angemessen finden. In unserer Generation war das ein Thema bei der Diskussion über Atomkraft. Während die einen sagten, das Risiko sei verschwindend gering, war es für die anderen zu hoch. Was ist das Richtige: 1 zu einer Million, zu zehn Millionen, zu hundert Millionen? Dann haben Mathematiker gezeigt, dass es um ganz konkrete Fälle geht, so dass die Wahrscheinlichkeit viel höher war, als diese Gleichungen beschrieben haben. Natürlich brauchen wir eine solche Ethik, aber sie ist eine Folge  des kulturellen Ertragens von Zurechenbarkeit. Ich bin kein Experte auf dem Gebiet, aber ich weiß, dass Ethik heute nicht mehr in der Lage ist, eine klare moralische Vorgabe zu machen. Es wird keinen KI-Dekalog geben, sondern wir benötigen Reflexionsformen, um sagen zu können, ob wir erstens in der Lage sind, diese Risiken erstens einigermaßen zu kontrollieren und zweitens zu berechnen, und drittens, ob wir bereit sind, sie einzugehen oder nicht.

Wir haben aber das Problem, dass verschiedene Länder Systeme mit unterschiedlichen Algorithmen bauen. Wenn man auf das Militär schaut, so wird dort massiv daran gearbeitet, KI einzuführen. Bei Waffensystemen wie Hyperschallraketen werden mögliche Reaktionszeiten immer kürzer. Absehbar ist, dass Menschen aus diesen Prozessen herausfallen, weil sie zu langsam sind, es muss automatisiert werden. Man kann sich kaum vorstellen, dass es hier zu einer gemeinsamen Lösung oder Risikobeurteilung kommen kann.

Armin Nassehi: Das kann man sich kaum vorstellen. Ich glaube, dass gerade dieser Schnelligkeitsaspekt eine ganz entscheidende Rolle spielt. Die Zeitspanne des natürlichen Bewusstseins, der Hirnforscher Ernst Pöppel sagt, die Zeiteinheit des Gehirns sei drei Sekunden, das sind in solchen Situationen geradezu Epochen. Aber die Frage ist hier auch, welche Risiken wir bereit sind einzugehen. Das Militärische hat eine Eigendynamik, hier ist es wahrscheinlich schwer, die Dinge zu stoppen. Schaut man sich Börsenalgorithmen an, die es schaffen, dass die Besitzzeiten von Wertpapieren in den Mikrobereich von Sekunden gehen. Wenn die Systeme perfekt sind, müssten doch die unterschiedlichen Algorithmen das Gleiche tun, um auf das Richtige zu kommen. Aber wenn an der Börse alle das Richtige tun, müsste sie eigentlich zusammenbrechen, weil dann das Richtige gleich das Falsche würde. Das wären solche Folgen, die aus den Echtzeitprozessen kommen.

Allerdings haben wir ähnliche Diskussionen im Kalten Krieg geführt. Ist es noch Abschreckung, wenn man noch 10 Minuten Zeit hat, das, was man auf einem Oszillographen sieht, wirklich eine sowjetische oder amerikanische Rakete oder irgendein anderes Artefakt ist? Oder sollen die beiden Mächte gegeneinander aufgehetzt werden. Dafür gibt es in Hollywoodfilmen Vorlagen.

Diese Diskussion geht weiter und sie lässt sich ethisch nicht eindeutig auflösen. Wahrscheinlich müsste man sagen, das ethisch Richtigste wäre, Verhältnisse zu haben, in denen man dieses Militärische nicht braucht. Aber das ist natürlich mit dem Siegel der Naivität belegt. Wenn die Technik da ist, muss man sie haben. Das ist im Grunde auch wieder die Frage der Risikobereitschaft. Sie kennen die Diskussion „Lieber tot als rot“ oder umgekehrt „Lieber rot als tot“ wahrscheinlich auch noch. Das war damals der Algorithmus, mit dem man das damals diskutiert hat. Aber jetzt handelt es sich um andere Geschwindigkeiten – und die sind eine andere Black Box als wir.

Ich habe mit dem KI-Forscher Raúl Rojas und der Philosophin Cathrin Misselhorn darüber gesprochen, ob es nicht nur notwendig wäre, eine Ethik für Maschinen zu entwickeln, sondern auch gegenüber diesen. Wenn wir beispielsweise mit digitalen Assistenten wie Alexa oder Sexrobotern zu tun haben, die auch noch intelligenter werden dürften und sich zu uns emotional verhalten. Gibt es Verpflichtungen gegenüber Maschinen?

Armin Nassehi: Sei nett zu Alexa! Hier würde ich als Soziologe antworten und sagen: Wer einen Personenstatus hat, ist sehr kontingent. Es gab durchaus auch Menschen, die für andere keinen Personenstatus hatten. Für uns ist das selbstverständlich, dass wir uns gegenseitig als ethisch relevante Entitäten ansehen. Die andere Frage wäre, ob es nicht-menschliche Entitäten geben kann, denen wir einen Personenstatus zuerkennen. Ich kann das nicht beantworten, ich kann nur sagen, diese Frage muss sich stellen. Was sind eigentlich die Kriterien für einen Personenstatus?

In der Medizin ist die Frage spannend, ab wann ein menschlicher Körper, der aussieht wie Sie und ich, tot ist. Man versucht das an der Black Box herauszukriegen. Wie reagiert der Körper auf Reize? Hat er einen Handlungsspielraum? Wenn ein Handlungsspielraum noch da ist, würden wir sagen, ist die Menschenwürde noch so stark, dass man ihn nicht für tot erklären darf. Was aber ist mit Maschinen, die Handlungsspielräume haben? Sind das Handlungsspielräume oder ist es ein Skalierungseffekt?

Ich kann nur den Typus von Frage stellen. Das ist keine moralische Frage, sondern eine ontologische oder gegenstandsbezogene Frage, was das für eine Entität ist. Wir halten ja schnell etwas für eine Person. Wenn Kinder, aber auch Erwachsene mit Hunden spielen, dann reden sie mit diesen oder versuchen zu interpretieren, was das Schwanzwedeln heißen könnte. Wir wissen zumindest, dass der Hund nicht in der Lage ist, das semantisch zu verarbeiten. Man kann dem Hund sagen, dass er ganz nett oder ein böser Drache ist, das macht für ihn keinen Unterschied. Wahrscheinlich hört er nur den Ton, wahrscheinlich, ich war noch nie ein Hund.

Für die Altenpflege beispielsweise sucht man Roboter zu bauen, die Zuwendung zeigen, um die Einsamkeit zu bekämpfen. Man nennt das affektives Computing, weil Roboter damit auf die Emotionen der Menschen antworten sollen. Können solche Systeme Emotionen haben und weitergeben oder bleibt das bei der Simulation? Auch hier gäbe es eine Grauzone wie beim Personensein.

Armin Nassehi: Ich kann da auch keine abschließende Antwort geben, ich würde das niedriger skalieren. Vielleicht ist man auch schon weniger einsam, wenn man Filme anschauen kann oder einer Talkshow beiwohnt, weil man da sieht, dass natürliche Menschen miteinander sprechen. Die Einsamkeit ist die gleiche, das Gefühl ist womöglich anders. Affektiv ist man simuliert an die Welt angeschlossen. Auch hier kann man fragen: Ist der Roboter, der einem gute Gefühle macht, ein Adressat, der moralische Ansprüche erheben kann? Darf ich den ausmachen?

Ich glaube, dass es nicht nur schlecht ist, dass es Pflegeroboter gibt. Die Utopie ist, dass dann, wenn ein Pflegeroboter bestimmte Dinge machen kann, die pflegenden Menschen mehr Zeit für die Menschen, die sie betreuen, haben. Aber das ist ein schöner Wunschtraum, weil das bedeuten würde, dass man sie weiter bezahlt. Vielleicht ist das eine der ethischen Fragen, die man sich hier stellen muss. Man sieht, dass sich durch die Veränderung von ontologischen Bedingungen in der Welt neue Fragen nach Gut und Böse stellen.

Teil 1 des Gesprächs: „Wissenschaft kann nicht einfach sagen, was der Fall ist“.

Das Gespräch wurde für den Digitalen Salon des ZKM Anfang Juli geführt. Dort findet sich auch die Zoom-Aufzeichnung.

Ähnliche Beiträge:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert