Israel testet mit Massenüberwachung und automatischer Identifikation eine neue Kriegsführung, die nur scheinbar präzise ist, weil sie wahllose und massenhafte Tötung legitimiert und exekutiert.
Ende Dezember 2023 berichtete Yuval Abraham in den israelischen Magazinen +972 Magazine und Local Call, dass das israelische Militär (IDF) Künstliche Intelligenz einsetzt, um automatisch die Ziele für die Luftangriffe im Gazastreifen auszuwählen. Die Bombardierungen sind genau geplant und kalkuliert, der Tod von Zivilisten wird kalt berechnend in Kauf genommen. Gesprochen wird von einer „Massenanschlagsfabrik“, weil gegenüber früheren Kriegen dieses Mal ebenso Wohnhäuser, öffentliche Gebäude, Infrastruktur und Hochhäuser bombardiert werden (Israel führt KI-gestützten Krieg in Gaza: Ursache für die hohe Zahl getöteter Zivilisten?).
Das KI-gestützte System, von dem damals die Rede war, hieß Habsora (Gospel). Das wurde auch vom Militär selbst angepriesen, weil damit in Sekundenschnelle „Terroristen“ identifiziert werden können. Es wird auch darauf hingewiesen, dass die KI-Tools während des Kriegs verbessert worden seien. Antony Loewenstein hat gezeigt, dass Israel Gaza als „Labor“ zum Testen von neuen militärischen Techniken benutzt (Das palästinensische Labor Gaza). Das „techno-dystopische Gefängnis“ mache schon lange die Bewohner des Gazastreifens zu „ultimativen Versuchskaninchen in einem grausamen, rund um die Uhr geöffneten Testgelände mit den raffiniertesten Formen israelischer Drohnen, Überwachungssystemen und ‚intelligenten‘ Zäunen.“
Dass KI-Systeme im Krieg vom israelischen militärisch-industriellen Komplex als Beifang getestet und optimiert werden, ist nicht außergewöhnlich. Unter Realbedingungen getestete militärische Mittel lassen sich schließlich auch gut exportieren. Es ist aber wohl der Einsatz von KI zur Identifizierung und Lokalisierung von Zielen, der die israelische Kriegsführung bislang einzigartig und möglicherweise auch wegweisend für asymmetrische Konflikte macht.
Jetzt ist Yuval Abraham wieder aufgrund von Informanten aus dem militärischen Geheimdienst, die im Gaza-Krieg aktiv waren, auf ein weiteres KI-System namens Lavender aufmerksam gemacht worden. Im Unterschied zu „Gospel“, das Gebäude und Strukturen ausmacht, in dem Hamas-Mitglieder sich aufhalten sollen, identifiziert Lavender Menschen und setzt sie auf eine Tötungsliste. Kontrolle durch Menschen, die eigentlich stattfinden sollte, geschieht offenbar bestenfalls höchst flüchtig, es soll primär darum gehen, ob es sich um einen Mann handelt, der damit automatisch ins Visier steht. Die Fehlerrate soll um die 10 Prozent betragen, aber wie sich das wirklich nachweisen lässt, ist kaum vorstellbar. Auf die Liste kommen auch Minderjährige.
Automatisierung der Kill-Liste
Lavender basiert auf Massenüberwachung. Informationen über die 2,3 Millionen Gaza-Bewohner werden gesammelt und bewertet. Jede Person wird von 1 bis 100 eingestuft, wie wahrscheinlich sie zum militärischen Arm von Hamas oder dem Islamischen Dschihad gehört. Fehler würden akzeptiert, Hauptsache statistisch ist alles in Ordnung. Anhand von bekannten Militanten lernt die KI Eigenschaften zu erkennen, die wahrscheinlich einen unbekannten Militanten identifizieren lassen. Beispielsweise Mitglied einer Whatsapp-Gruppe zu sein, der ein Militanter angehört, häufiger Wechsel des Handys, häufige Wohnungswechsel. Die Frage ist natürlich auch, welche Eigenschaften jemanden als Militanten kennzeichnen. Handys werden beispielsweise oft weitergegeben.
Während vor dem 7. Oktober nur hohe Kommandeure in ihren Häusern nach ausführlicher Analyse bombardiert werden durften, war danach jedes Hamas-Mitglied ein militärisches Ziel. Das entspricht auch dem ausgegebenen Ziel der israelischen Regierung, die Hamas zu eliminieren, was dem Anschein nach bedeutet, jedes Hamas-Mitglied zu töten, Familie und auch Nachbarn inklusive.
Um die Menge zu bewältigen, wurde die Erstellung der Kill-Liste automatisiert und durch KI gestützt. Das ließe sich als Banalität des Tötens bezeichnen, eine Vernichtungsmaschinerie, die präzise Zehntausende von Menschen eliminiert, was heißt, gezielt tötet. Das ist Krieg auf einem neuen Niveau und praktiziert in einem abgeschlossenen, streng überwachten Territorium, aus dem niemand der Vernichtungsmaschinerie entfliehen kann.
Zwei Wochen nach Kriegsbeginn setzte nach den Informanten die Automatisierung ein, nachdem sich gezeigt hatte, dass das System zu 90 Prozent richtig eine Verbindung einer Person mit Hamas herausfand. Nach vier Informanten liegt eine Liste mit verdächtigen 37.000 Militanten, meiste junge Männer, zur Tötung vor. Die Zahl soll aber oft größer oder kleiner geworden sein, je nachdem, wie bestimmt wird, wer ein tötenswerter Militanter ist. Es soll auch Druck ausgeübt worden sein, immer neue Ziele zu finden. Das ist verständlich. Wenn das Ziel die Eliminierung von Hamas ist, dann sind Erfolgsmeldungen angeblich getötete Militante.
„Die Zahlen änderten sich ständig“, sagte ein Informant, „denn es hängt davon ab, wo man die Messlatte für einen Hamas-Aktivisten ansetzt. Es gab Zeiten, in denen die Definition eines Hamas-Aktivisten weiter gefasst war, und dann begann die Maschine, uns alle Arten von Zivilschutzpersonal und Polizisten zu liefern, für die es eine Schande wäre, Bomben zu verschwenden. Sie helfen der Hamas-Regierung, aber sie gefährden die Soldaten nicht wirklich.”
Ein IDF-Sprecher sagte, eine solche Liste mit 37.000 Militanten gebe es nicht. Überhaupt wird die Darstellung über den weitgehend automatisierten Einsatz von KI abgestritten, aber es wird auch nicht näher erläutert, wie im Einzelnen die Identifizierung eines Militanten und die Entscheidung für eine Bombardierung geschieht.
“Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten”, berichtete einer der Informanten. “Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen – wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] zu Hause war, wurde sie sofort zum Ziel. Wir haben ihn und sein Haus bombardiert.”
Massenüberwachung durch Gesichtserkennung auch mit Google-Technik
Bombardiert werden die ausgewählten Personen in der Regel, wenn sie Zuhause mit ihren Frauen und Kindern sind, weil sie dann leichter zu lokalisieren sind. Es gibt auch das Programm “Where’s Daddy?”, das ausgemachte Personen verfolgt und anzeigt, wenn sie ihr Haus betreten. Genau der Ansatz, Personen zu töten, wenn sie Zuhause sind, also in die Falle gegangen sind, hat dazu beigetragen, dass so viele Zivilisten getötet wurden.
Wie die Personen verfolgt werden, geht aus dem Bericht nicht hervor. Bekannt wurde aber, dass der israelische Militärgeheimdienst zusammen mit einem KI-Gesichtserkennungsprogramm der israelischen Firma Corsight Google Photos nutzt, um eine Massenüberwachung im Gaza-Streifen auszuführen. Mit Google Photos können leicht Personen identifiziert werden. Es wurde u.a. benutzt, um Personen auf Straßen herauszupicken oder auch auf Drohnenbildern zu identifizieren – und wahrscheinlich auch um zu erkennen, wer in welche Häuser geht. Nach Robert Watts, Chef von Corsight, können Gesichter aus „extremen Winkeln, selbst von Drohnen, in der Dunkelheit und schlechter Qualität“ erkannt werden. Dabei heißt erkennen töten. Googles Motto war bis 2018: “Don`t be evil.”
Die New York Times hat davon durch Informanten aus dem israelischen Geheimdienst erfahren, die auch sagten, dass Menschen fälschlich als Hamas-Militante identifiziert und festgenommen wurden. Verwiesen wird auf einen Amnesty-Bericht, nach dem zuvor schon Gesichtserkennung im Westjordanland und Ost-Jerusalem eingesetzt wurde. Auch hier wurden die Menschen ohne Einverständnis aufgenommen, die Bilder in die Datenbank eingespeist und dann Menschen an Kontrollstellen herausgepickt, wenn das System einen Treffer meldete. Für den Gaza-Streifen wurden Gefangene, die oft misshandelt wurden, aufgefordert, Menschen zu benennen, von denen sie glauben, dass sie für Hamas arbeiten.
Wenn das Kriegsziel Eliminierung, nicht Besiegung des Feindes ist …
Wenn Lavender jüngere, weniger wichtige Militante identifiziert, sollen zur Bombardierung gerne billigere, nicht gesteuerte „dumme“ Bomben verwendet werden, die ganze Gebäude zerstören können, um nicht teure Bomben an unwichtige Personen zu verschwenden, wie ein Informant sagt. In den ersten Wochen des Kriegs durften für jeden jungen Hamas-Militanten bis zu 20 Zivilisten mitgetötet werden. Bei einem Kommandeur konnten es auch schon mal 100 sein.
Inwieweit auch miteinbezogen wird, wie viele Verletzte es geben könnte, geht aus dem Artikel nicht hervor, auch nicht, ob nach der erfolgten Bombardierung die Zahl der getöteten und verletzten Menschen, die zu Kollateralschaden werden, erfasst wird. Verhältnismäßigkeit scheint nur noch nach statistischen Kriterien zu erfolgen. Wenn schon bei der routinemäßigen Vernichtung von unwichtigen jungen Militanten das Zehn- oder Zwanzigfach an Personen, die keine Militanten sind, mitgetötet werden können, besitzen kriegsrechtliche Überlegungen zur Verhältnismäßigkeit im konkreten Fall keine Rolle.
Wenn das israelische Militär sagt, bislang seien 13.000 Militante getötet worden, dann steht dies im Widerspruch zu den Zahlen, die das von Hamas verwaltete Gesundheitsministerium nennt, die aber von den Vereinten Nationen als weitgehend verlässlich eingestuft und beispielsweise von UNRWA veröffentlicht werden. Danach sind jetzt mindestens 33.000 Gazabewohner im Krieg getötet und 76.000 verletzt worden. 70 Prozent sollen Frauen und Kinder sein – nach Save the Children wurden mindestens 12.800 Kinder getötet -, dann müssten alle getöteten Männer Militante gewesen sein. Wahrscheinlich zählen die IDF so, zumal Militante keine Uniformen anhaben und, wenn sie keine Waffen tragen, auch sonst nicht einfach von Zivilisten unterschieden werden können, oder gehen davon aus, dass jede Bombardierung einen Militanten eliminiert und insofern „erfolgreich“ ist.
Israel führt einen Hightech-Krieg im Gazastreifen, bei dem es nicht darum geht, bestimmte militärische Zentren auszuschalten, sondern eine tief in der Gemeinschaft verankerte Organisation, die auch zivile Aufgaben erfüllt, militärisch zu vernichten. Wenn man nicht nur die „Enthauptung“ anstrebt, bedeutet das Ziel eine Massentötung von allen auch nur entfernt Verdächtigen mit ihren Angehörigen, Nachbarn und zufällig Anwesenden, die als Bedrohung eingestuft werden. Künstliche Intelligenz dürfte hier ein moralischer Filter sein, der es erleichtert, scheinbar präzise und objektiv, im Resultat aber wahllos zu töten, da die Exekution alle in der Nähe mit erfasst. Krieg wird dadurch umdefiniert. Er wird auf der Basis einer Massenüberwachung zur Jagd auf Einzelne, von denen man glaubt und sich von KI-Systemen scheinbar objektiv sagen lässt, es seien Militante, auch wenn sie keine Waffen bei sich führen und nicht kämpfen.
Ich finde das beeindruckend. Autonome fortschrittliche Waffenplattformen, ob zu Land, zu Wasser oder in der Luft. Man wählt nur noch das Einsatzgebiet aus, definiert die Ziele und los geht’s.
“Israel testet mit Massenüberwachung und automatischer Identifikation eine neue Kriegsführung…”
Krieg und Test passen schlecht zusammen. Man könnte natürlich sagen, die u.s.-Amerikaner hätten in Japan ihre Atombombe getestet. Das ändert aber nichts an der Endgültigkeit der dadurch verursachten Tode und Leiden.
Jeder Krieg ist ein einziger Waffentest. Macht ja auch Sinn, da man die Waffen ja auch genau für den Krieg entwickelt hat. Wenn sie sich bewähren, wie bspw. die Atombombe, stellt man sie in Serie her. Tod und Leid ist nun mal die Währung des Krieges, und sie wird meist sofort fällig.
Wirkliche Entscheidungen kann KI nicht treffen, denn die mit einer Entscheidung verbundenen Verantwortung zu übernehmen, ist KI nicht möglich. Die beiden Dinge gehören aber dialektisch gesehen zusammen, Sie sind eine EInheit !
Die Entscheidungen treffen immer noch die Menschen, KI kann sich nur in den von diesen vorgegebenen Rahmen bewegen.
In meinen Augen erfüllt das aber doch alle Kriterien damit man die Tötung von Menschen mit Hilfe von KI als “Industrielle tötung”ansehen könnte.Diese Bundesregierung ist die erste seit W2k die nicht mehr in Lage ist solche Entwicklungen im Historischen Kontext sehen und bewerten zu können. Oder aber kann es und darf es nicht.. o))
In meinen Augen auch. Diese Bundesregierung hat ein totes Pferd bestiegen, und reitet den Gaul in den Untergang. Andererseits, was sehen wir schon?
Verantortung ist in diesem Zusammenhang ein leeres Wort. Niemand kann die Verantwortung tragen im Sinne von die Fragen der Hinterbliebenen zu beantworten. Welche Konsequenzen soll das Tragen von Verantwortung denn haben? Int. Gericht und gegebenenfalls Verurteilung? Durch Verantwortung tragen wird kein Verkrüppelter gesund und kein Toter steht auf. Das Wort ist unpassend.
“Israel testet mit Massenüberwachung und automatischer Identifikation eine neue Kriegsführung, die nur scheinbar präzise ist, weil sie wahllose und massenhafte Tötung legitimiert und exekutiert.”
Ich glaube wir können uns von dem Gedanken verabschieden das dies ein dummes Missgeschick ist. Das ist voll gewollt, um die Gasfelder vor der Küste auszubeuten müssen nach Bibis “from River to the Sea- Plänen” diejenigen denen es gehört erstmal alle ermordet oder vertrieben werden. Ist Sunak nicht an einer Firma beteiligt die für die Förderung zuständig ist? Was für ein Zufall wa? Und ich wette der größte Anteilseigner dieser Firma ist entweder Black Rock oder Vanguard wetten? Immer diese Zufälle aber auch, könnte schon fast Zufall sein.
Nur mal angenommen, ich würde in Deutschland noch mehr Politik gegen die Interessen der Bevölkerung machen wollen. Und mal angenommen, ich befürchtete, dass die Menschen Aufbegehren würden, sobald die Konsequenzen der BISHERIGEN Politik gegen ihre Interessen sich verspätet einstellen, wären da nicht Systeme oder auch nur Erfahrungsdaten einer autonom Ziele und Zielstrukturen bekämpfenden KI Technologie sehr willkommen?
Drohnen, die keinerlei Skrupel oder Gerechtigkeitssinn oder gar Mitleid oder Verständnis aufbringen, sind ideal, um die Bevölkerung zu züchtigen.
Was dort geschieht ist für psychopathische Machtmenschen ein wertvolles Experiment zur Machtsicherung. Menschliche Polizei und Sicherheitskräfte haben so viele Schwachstellen…
Es gab ja auch schon Berichte, wie Menschen beim Droneneinsatz in Afghanistan Entscheidungen über Leben und Tod getroffen haben. Da sitzen dann Anfangzwanzigjährige in einem klimatisierten Raum in Arizona und nach Mittagessen bei Starbucks unterhalten sich die Dronenpiloten mit den Zielanalysten darüber, wer von denen aus der Dronenperspektive beoachteten Afghanen wohl militante Kämpfer seien und sein Leben verwirkt hat. Dabei kam heraus, dass das US-Militär wohl alle getöten Männer im wehrfähigen Alter als “Kombatanten” wertete.
Durch die KI geht das jetzt alles in noch größerem Maßstab und noch entmenschlichender. Die beschriebenen Systeme sind eine wahre Distopie. Da dürften oft auch computerspielerprobte Jugendliche in Israel die Ziele der KI anschauen (wenn überhaupt) und die jungen Menschen dürften sich über jedes Lob ihrer Vorgesetzten freuen, wenn sie mehr “feindliche Kräfte” ausgeschaltet haben als die Kollegen. Gibt es womöglich auch einen “Highscore”?
Es ist Tötung im industriellen Maßstab. Wenn man sich die KI-Zielbestimmung von “Desinformation” anschaut, kann man sich die Fehlerquote vorstellen. Wer hätte gedacht, wenn er zu Anfangszeiten von Social Media seine Fotos arglos in einem Profil gepostet hat, dass diese ihm irgendwann zum Verhängnis werden könnten, wenn diese zur militärischen Zielbestimmung noch Jahrzehnte später verwendet werden können.
Herr Rötzer und den Mitlesern empfehle ich in dem Zusammenhang das aktuelle Interview im Cicero-Podcast mit Mathias Brodtkorb über seine Recherchen zum Verfassungsschutz. Ich fand es ähnlich haarsträubend zu erfahren, wie dort Verdachtspersonen bestimmt werden und welche Art von Charakteren er aus dem Verfassungsschutz kennengelernt hat.
Verdachtspersonen schießen dieser Tage ja wieder wie Pilze aus dem Boden.
Nennt mich Verschwörungstheoretiker, aber die KI-Story ist meinen Augen eine geschickt platzierte Ablenkungsdebatte. Das Ziel Israels ist es in Gaza und perspektivisch in ganz Palästina alle Palästinenser zu ermorden oder zu vertreiben. Ob die Zielerfassung teilautomatisiert ist spielt dabei absolut keine Rolle. Die Leichen aus dem Massengrab im Nasser-Krankenhaus stammen auch von menschlichen Erschießungskommandos.
Die Verbrechen sollten für sich sprechen. Aber weil manche den Genozid partout nicht sehen wollen, führt man lieber eine schwachsinnige KI-Debatte. “Die KI hat entschieden” ist das neue “Ich habe nur Befehle befolgt”, wie man es schon von den Nürnberger Prozessen kennt.
++ Dem kann ich nichts mehr hinzufügen.
Einerseits ist es ein Ablenkungsmanöver, andererseits ist es real. Ich denke schon, dass die Israelis wenigstens zum Teil gedacht haben, mit diesem Einsatz moderner Großtechnik könnten sie die Hamas besiegen. Beschert hat es ihnen eine krachende Niederlage auf allen Ebenen. Weder haben sie die Hamas besiegen noch ihre Geiseln befreien können und darüber hinaus haben sie ihr Ansehen in der Welt ruiniert, sowohl als moralische Instanz als auch als sicherer Hafen.
Die deutsche Übersetzung von Yuval Abrahams Artikel für +972 und Local Call ist im „nd“ nachzulesen:
https://www.nd-aktuell.de/artikel/1181223.gaza-krieg-lavendel-die-ki-maschine-die-israels-angriffe-in-gaza-lenkt.html
Darauf stieß ich bei der Suche nach Zahlen zu den tolerierten bzw. eingeplanten „Kollateralschäden“: Dem Vernehmen nach berechnet die KI je nach Bedeutung eines Hamas-Mitglieds eine maximal zulässige Zahl von zusätzlichen Opfern bei der Bombardierung seines Aufenthaltsortes. Stellt sich raus: wenn die IDF mehr Ziele brauchten, konnten die Militärs (nachzulesen im “nd”) freihändig an dieser Stellschraube drehen.
… Das war bei den „Hochzeitsgesellschaften“ im Drohnenprogramm von Clinton und Obama nicht anders. Mit „Lavendel“ etabliert Israel nun eine Automatik, die – angeblich zur Ausschaltung von 37000 Hamas-Leuten – die kollaterale Ermordung von 370000 bis 740000 Zivilisten vorsieht: zusätzlich zur Hamas. Darf’s ein bisschen mehr sein? Natürlich, lieber Fleischer! Pro „Zielperson“ gestattet das Programm auch bis zu 100 Opfer im „Beifang“ – theoretisch, denn schon vorher gäbe es kein Leben im Gaza mehr.
Angesichts dieser Dimensionen ist es unerheblich, ob die KI Fehler macht – Alleine schon die Tatsache, dass Israel dieses Programm einsetzt, bedeutet schlicht dies: geplanter Völkermord, also Absicht. Dafür haben sie immerhin ein historisches Vorbild – Die Nazis setzten zur korrekten Verwaltung ihres Völkermords Hollerith-Maschinen von IBM ein, siehe:
https://en.wikipedia.org/wiki/IBM_and_the_Holocaust
oder den Artikel „Der programmierte Massenmord“ im Spiegel von 2001:
https://www.spiegel.de/wirtschaft/ibm-der-programmierte-massenmord-a-117132.html
Eine Diskussion darüber, wie fehlerträchtig oder moralisch verwerflich der militärische Einsatz einer KI sei, verfehlt den Kern des Skandals: das Netanyahu-Regime hat ganz sicher die Auswirkungen des Programms bewertet – und es danach bewusst eingesetzt. Damit erfüllt es den Tatbestand des geplanten Völkermords.
Das EU-Parlament hatte vor einigen Wochen beschlossen, Überwachung mit biometrischer Gesichtserkennung im öffentlichen Raum grundsätzlich zu legalisieren. Was daraus folgt und möglich ist bleibt den Erkenntnissen und der Fantasie jeder potentiellen Zielperson überlassen.
Das ist doch in technischer Hinsicht bereits ein totalitäres System.
Danke für diesen Artikel, ich hab schon seit Tagen auf nähere Infos über Lavender im deutschsprachigen Raum gewartet!
Tötung per KI ist ungefähr vergleichbar mit Ziegelstein über die Dachkante schubsen, der dann unten ankommend jemanden erschlägt.
In beiden Fällen hat scheinbar niemand das Mordmittel direkt in der Hand gehabt.
Trotzdem ist derjenige, der den Stein geschubst hat, der Mörder. Genauso wie der Programmierer, der den Algorithmus für die KI geschrieben hat, bzw. der Besitzer der KI, der den Befehl für diese Arbeit gegeben hat, und den Befehl, die KI mit diesem Algorithmus loszuschicken.
Der Unterschied ist: die KI kann viel schneller und unerkannter morden, also maschinell, quasi industriell. Industrielle Vernichtung von Menschen hatten wir allerdings schon mal, vor so 80 Jahren ungefähr, Man will uns immer noch erzählen, dies wäre damals ein absolut singuläres Ereignis gewesen, einmaliger Ausrutscher in der Menschheitsgeschichte, der sich nie wiederholen dürfe und sich nie wiederholen wird, weil wir alle daraus gelernt haben und aufpassen…
Jetzt ist es wieder so weit. Die Maschinerie läuft sich warm… Und niemand redet öffentlich Klartext darüber, immer nur so… ein bisschen. Wie beim Frosch im Kochtopf… nur dass wir alle die Frösche sind!
An wen genau sollte sich dieser “Klartext” denn richten? Wer ist der verzweifelte Adressat?
Du vielleicht?
Und ich?
Und die vielen anderen um uns herum?
Na gut. ICH prangere das hier öffentlich an, dass mit dieser Maschinerie. ICH bin sicherlich kein Frosch, das wüsste ICH wohl. Bist Du ein Frosch? Sind hier sonst noch Frösche?
1. Kapitaler Fehler: Kollateralschäden bewußt zu akzeptieren, und dann noch in absurder Höhe von 10%, bzw. 10 Menschen oder gar 100% bzw. 100 Menschen, wird diesen “Strategen” noch wiederbegegnen.
2. Fehler:
Es gibt kein Friedenskonzept.
3. Fehler:
Egozentrik ist kein Konzept, sondern eine “Diagnose”
Zu:
1. Meine Fehlertoleranz liegt bei etwa 0,01 %. Mir ist das ehrlich gesagt immer noch viel zu hoch!
2. Es gibt gar kein Konzept!!
3. Befund sehr gut analysiert!!!
Aber wie sieht nun ein geeigneter Heil- und Kostenplan aus? Oder anders gefragt, wie sollte er nicht aussehen und woran würde man das überhaupt erkennen?