China: Künstliche Intelligenz erstellt als Staatsanwalt Anklagen in Shanghai

Bild: DS-Foto/Pixabay.com

China ist auf dem besten Weg, die Rechtsprechung zu einem autonomen, KI-gestützten System zu machen.

Künstliche Intelligenz und autonome Systeme dringen in alle Bereiche der Gesellschaft ein und werden sie zunehmend vom Krieg über die Sexualität, den Verkehr und die Arbeitswelt bis hin zum Wohnen verändern. KI wird etwa zum autonomen Fahren, zur Personaleinstellung, zur Krankheitserkennung, zur Identifizierung von Verdächtigen bzw. verdächtigem Verhalten  oder zum Überprüfen des Rückfallrisikos von Straftätern eingesetzt. In China wurde nun das erste System entwickelt, das Staatsanwälte ersetzen kann, indem es Menschen für begangene Verbrechen anklagen kann. Es fehlt dann noch der KI-Richter, der das Urteil unter „objektiver“ Berücksichtigung aller Umstände und Beweismittel fällt.

Wie SCMP berichtet, setzen chinesische Staatsanwälte bereits KI-Programme ein, um Beweismittel zu bewerten, Haftbedingungen zu überprüfen und zu beurteilen, wie gefährlich ein Verdächtiger für die Öffentlichkeit ist. Da entscheidet nicht das Programm alleine, aber vermutlich werden die Nutzer aus Bequemlichkeit und Zeitdruck weitgehend den Vorschlägen folgen. Einen Schritt weiter geht das KI-Programm, das für einen Verdächtigen eine Anklage erstellen kann, wenn der Fall ihm verbal geschildert wird. Das soll mit 97-prozentiger Genauigkeit gehen.

Im Einsatz ist das Programm bei der Staatsanwaltschaft Shanghai, wo seit 2019 bereits das „System 206“ verwendet wird. Es soll dazu dienen, die Staatsanwälte von Arbeit zu entlasten, um ihre Aufmerksamkeit schwierigeren Aufgaben zuzuwenden. Man wird sich denken können, dass damit letztlich auch Staatsanwälte eingespart werden, wenn sich das Programm zumindest bei einfacheren Fällen bewähren sollte. Professor Shi Yong, Direktor des Laboratoriums für Big Data der chinesischen Akademie der Wissenschaften und Chef des Entwicklungsteams des KI-Staatsanwalts, meint den auch, dass das System bis zu einer gewissen Grenze Staatsanwälte im Entscheidungsprozess ersetzen könne. Noch aber würden die KI-Systeme nicht daran beteiligt sein, die Entscheidung zu einer Klageerhebung zu treffen und Urteile vorzuschlagen.

Voraussetzung dafür wäre, treffsicher natürliche Sprache verarbeiten zu können. Dazu seien aber große Computersysteme erforderlich, die der Staatsanwaltschaft nicht zur Verfügung stünden. Der KI-Staatsanwalt läuft hingegen auf einem normalen Desktop-Computer. Trainiert wurde das System an mehr als 17.000 Fällen von 2015 bis 2020.

Es kann die acht am meisten verbreiteten Straftaten in Shanghai erkennen und Anklagen zimmern, also für Kreditkartenbetrug, Glücksspiel, gefährliches Fahren, absichtlich jemanden verletzen, offizielle Pflichten missachten, Diebstahl, Betrug sowie „Streit anzetteln und Ärger provozieren“ (picking quarrels and provoking trouble). Letzteres ist besonders delikat, da es sich um eine besonders schwammig definierte Straftat nach Artikel 293 des chinesischen Strafgesetzbuchs handelt, die Menschen und KI-Systeme zu Missbrauch einlädt:

„Artikel 293. Wer mit einem der folgenden provokativen und beunruhigenden Verhaltensweisen die öffentliche Ordnung untergräbt, wird zu einer Freiheitsstrafe von höchstens fünf Jahren, strafrechtlicher Haft oder Kontrolle verurteilt:

 

(1) eine andere Person vorsätzlich angreift und die Umstände schlecht sind; (2) eine andere Person verfolgt, abfängt oder beschimpft und die Umstände schlecht sind; (3) öffentliches oder privates Eigentum gewaltsam entwendet, fordert oder vorsätzlich beschädigt oder beschlagnahmt und die Umstände ernst sind; (4) Verursachung einer Störung an einem öffentlichen Ort, die zu ernsthafter Unordnung führt.“

(Vielleicht kann jemand helfen zu klären, was rechtlich gemeint sein soll, wenn Umstände schlecht sind?)

Mit Artikel 293 lassen sich Kritiker verfolgen und ins Gefängnis stecken. So beispielsweise 2019  mit der #MeToo-Aktivistin Huang Xueqin, die auch über die gegen die Regierung gerichteten Proteste in Hongkong geschrieben hat und in Guangzhou wegen „picking quarrels and provoking trouble“ festgenommen wurde. Sie blieb 3 Monate in Haft. Im September 2021 wurde sie erneut in Guangzhou zusammen mit dem Arbeitsaktivisten Wang Jianbing unter dem Verdacht festgenommen, zur Subversion der Staatsmacht aufzurufen.  Sie soll sich jetzt in Isolationshaft befinden. Im Fall von  Zhang Zhan, die über die Covid-Pandemie in Wuhan geschrieben hatte, wurde ebenfalls der Artikel 293 angewendet. Sie wurde im Mai 2020 festgenommen und im Dezember2020 zu vier Jahren wegen „picking quarrels and provoking trouble“ verurteilt, dabei ging es um die angebliche Verbreitung von Desinformation.

Die Entwickler wollen den KI-Staatsanwalt weiter ausbauen, damit er auch weniger verbreitete Straftaten erkennen und mehrere Anklagen gegen einen Verdächtigen vorlegen kann. Aber nach SCMP gibt es bei der Staatsanwaltschaft von Guangzhou auch Bedenken. Da das System nicht 100-prozentig richtig liegt – was ja wohl  eigentlich bei menschlichen Staatsanwälten auch nicht  der Fall ist -, entsteht natürlich die Frage, wer bei einem Fehler verantwortlich ist: „Der Staatsanwalt, die Maschine oder der Programmierer des Algorithmus?“ Überdies  würden die meisten Staatsanwälte ablehnen, dass sich Computerwissenschaftler in die Rechtsprechung einmischen. Man wird wohl auch Sorge haben, dass die eigene Arbeit vom KI-Staatsanwalt geprüft wird, der viele Staatsanwälte auch überflüssig machen könnte.

China treibt aber den Einsatz von KI in allen Bereichen voran und wird dies auch in der Rechtsprechung machen. Werden in Zukunft Menschen vor einem Gericht erscheinen müssen, in dem nicht nur Staatsanwälte und irgendwann auch Richter, sondern, um gleichzuziehen, auch Verteidiger durch KI-Systeme ersetzt werden? Und wenn diese Fehler machen, werden sie dann vor ein KI-Gericht gestellt?

Sehr weit von allem scheint man nicht entfernt, da viele Gerichte bereits KI verwenden, um Prozessakten zu bearbeiten und zu entscheiden, ob ein Einspruch angenommen oder abgelehnt wird. Und im Gefängnis sind natürlich auch schon KI-Systeme am Werk und verfolgen mittels Überwachung die körperliche und geistige Verfassung der Gefangenen, angeblich um Gewalt zu reduzieren. Die Regulierung des Verhaltens der Menschen durch Überwachen und Strafen wird durch ein umfassendes Sozialkreditsystem geplant und getestet, das mit KI eine operante Konditionierung leistet und damit den Traum des amerikanischen Psychologen und Behavioristen Frederic Skinner von einer geplanten Gesellschaft umsetzt, die dieser in seinem utopischen oder eher dystopischen Roman  „Walden Two“ („Futurum Zwei“) ausgemalt hat.

Ähnliche Beiträge:

Sei der erste, der diesen Beitrag teilt:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.