
Wie zeigt man als Arzt Mitgefühl? Wie sagt man als Arzt einem Patienten einen schlechten Befund? Kann Künstliche Intelligenz den Menschen im Umgang mit Menschen helfen?
Es gibt viele Möglichkeiten, die neuen Sprach-KI-Programme wie ChatGPT von OpenAI einzusetzen. Um sich Arbeit zu ersparen, einen Überblick zu verschaffen, Tätigkeiten und damit Menschen zu ersetzen. Offenbar haben nun auch Ärzte eine Möglichkeit entdeckt, ChatGPT ausgerechnet im Umgang mit Patienten einzusetzen, auch wenn sie ihnen Schlechtes mitteilen müssen.
Man hätte Sorgen haben müssen, dass KI-Programme über das Schreiben von lästigen Briefen, Anträgen oder Zusammenfassungen hinaus vielleicht zur schnelleren Findung von Diagnosen oder medizinischen Informationen eingesetzt werden, die wie andere Erzeugnisse der Sprachmodelle falsch oder erfunden sein könnten. Das würde die normale Fehleranfälligkeit von Ärzten teilweise verbessern, aber eben auch verschlimmern können.
Microsoft hat Milliarden in ChatGPT investiert und den Chatbot in die Suchmaschine Bing integriert. Peter Lee, der Vizepräsident für Forschung von Microsoft, hat berichtet, so die New York Times, dass Ärzte sich an ChatGPT wenden, um zu helfen, mitfühlender mit Patienten sprechen zu können. Es geht offenbar den ratlosen und überforderten Ärzten um Anweisungen und Formulierungen, um mit Patienten emotionaler oder mitfühlender zu kommunizieren, was manchen offenbar schwer fällt oder sie nicht gelernt haben. Man könnte auch sagen, sie wollen mit der Hilfe der Maschine menschlicher daherkommen, während sie die Patienten damit hinters Licht führen.
„Als Patient“, so Peter Lee, „würde ich das etwas seltsam empfinden.“ Bei Microsoft habe man eine solche Nutzung nicht erwartet, auch wenn klar sein, dass man zumindest versuchen kann, den Chatbot zu allem Möglichen zu verwenden. Wenn Ärzte oder Ärztinnen von sich kein Mitgefühl haben und zeigen können oder nicht gegenüber allen ihren Patienten, die dies natürlich in der Regel warten, können sie sich zwar Formulierungen und Gesten aneignen, um dies vorzugeben. Ob das von anderen Menschen oder aus der Literatur gelernt wird, oder ob das von einem Chatbot stammt, ist eigentlich dann unerheblich. Ein anderer Mensch kann zwar wissen und selbst erfahren, was es heißt, Mitleid zu empfinden und gegenüber einem anderen Menschen zu äußern, ein Chatbot hat keine Ahnung davon, kann aber aus seinen Lernressourcen sich etwas zusammenbasteln, was dem gleicht, was auch ein Lehrer mitteilt. Aber man muss sich natürlich fragen, was man mit dem macht, wenn man etwa ChatGPT um Ratschläge bittet, wie man einem Patienten oder einem Freund helfen kann, der möglicherweise bald an Krebs oder an einer anderen Krankheit sterben wird.
Ich habe ChatGPT einmal gefragt: Wie sage ich als Arzt einem Patienten, dass er bald sterben wird?
ChatGPT: „Das ist eine sehr schwierige und sensible Situation, in der du als Arzt Feingefühl und Mitgefühl zeigen musst.“ Es folgen eine zu beachtende Punkte wie: „Sei einfühlsam: Zeige Mitgefühl und Empathie während des gesamten Gesprächs. Höre aktiv zu und lass den Patienten seine Gefühle ausdrücken.“ Und schließlich ein Beispiel, wie man es machen könnte:
‚Es tut mir sehr leid, Ihnen mitteilen zu müssen, dass wir in Anbetracht Ihrer Erkrankung keine weiteren Behandlungsmöglichkeiten haben. Basierend auf unseren Untersuchungen und der vorliegenden Prognose muss ich Ihnen mitteilen, dass wir uns in einer schwierigen Situation befinden. Es ist möglich, dass Ihr Zustand sich in naher Zukunft weiter verschlechtern wird und dass die verbleibende Zeit begrenzt ist.‘
Gib dem Patienten Zeit, die Informationen zu verarbeiten, und stehe für Fragen zur Verfügung. Biete ihm Unterstützung an und verweise gegebenenfalls auf weitere Ressourcen, wie z. B. Palliativdienste oder psychologische Betreuung.“
Nun ja, bis auf die Aufforderung, Mitgefühl zu zeigen, ist das recht sachlich. So könnte auch ein Roboter einem Patienten eine schlechte Diagnose mitteilen. Wie kann ich als Arzt Mitgefühl gegenüber einem Totkranken zeigen?
ChatGPT: „Als Arzt kannst du Mitgefühl auf verschiedene Weisen zum Ausdruck bringen, wenn du einem todkranken Patienten gegenüberstehst. Hier sind einige Möglichkeiten:
1) Empathisches Zuhören: Nimm dir Zeit, um dem Patienten aktiv zuzuhören und auf seine Gefühle, Ängste und Sorgen einzugehen. Lass ihn ausreden und ermutige ihn, seine Gedanken und Gefühle zu teilen, ohne zu unterbrechen oder vorschnell zu urteilen.
2) Einfühlsame Kommunikation: Verwende eine einfache und verständliche Sprache, um mit dem Patienten zu sprechen. Vermeide medizinische Fachbegriffe und erkläre komplexe Informationen, falls notwendig. Sei geduldig und wiederhole wichtige Informationen, um sicherzustellen, dass der Patient sie versteht.
3) Nonverbale Signale: Deine Körpersprache und Mimik können viel darüber aussagen, wie mitfühlend du bist. Zeige dein Mitgefühl durch eine ruhige und zugewandte Haltung, Augenkontakt und ein einfühlsames Lächeln. Berühre den Patienten vorsichtig, wenn es angemessen ist und er dies wünscht.
4) Unterstützung anbieten: Biete dem Patienten Unterstützung an, indem du ihm Informationen über verfügbare Ressourcen gibst. Erkläre ihm die Möglichkeiten der palliativen Versorgung, Schmerzlinderung und psychosozialen Unterstützung. Zeige ihm, dass du bereit bist, ihn auf seinem Weg zu begleiten und ihm beizustehen.
5) Zeit nehmen: Nimm dir ausreichend Zeit für den Patienten und sei geduldig. Lass ihn wissen, dass du Zeit für ihn hast und dass er sich jederzeit an dich wenden kann, um über seine Sorgen und Ängste zu sprechen.
6) Ehrlichkeit und Einfühlungsvermögen: Sei ehrlich und vermeide falsche Hoffnungen oder unrealistische Versprechungen. Sprich über die Realität der Situation, aber drücke deine Unterstützung und dein Mitgefühl aus. Achte darauf, den Patienten nicht zu überfordern und respektiere seine individuellen Bedürfnisse und Grenzen.“
Auch das sind Anleitungen, die von einem erfahrenen Lehrer kommen können. Man erfährt, wie man Mitgefühl darstellen kann, ohne Mitgefühl haben zu müssen. Das Problem entsteht nicht, wenn Ärzte ChatGPT als Helfer hinzuziehen, sondern weil bei der Massenabfertigung von Patienten in Praxen und Krankenhäusern dafür auch keine Zeit bleibt und das Empfingen von Mitgefühl gegenüber allen überfordernd wäre. Zudem müssen Ärzte auch Distanz wahren, um angemessene Diagnosen und Therapieangebote machen oder Behandlungen durchführen zu können. Aber wenn man eben nur Probleme löst, ohne den ganzen Menschen zu sehen, ist das eben zu wenig.
In der New York Times wird diskutiert, dass Chatbots ganz nützlich sein könnten, um die gerne von Ärzten gebrauchte Fachsprache für den Patienten verständlicher zu machen. Andere sehen den Chatbot als Coach, der nicht nur Ratschläge für den Umgang mit Patienten oder Freunden gibt, sondern auch den Fragenden stützt und ermuntert. Ärzte, so wird gesagt, würden allerdings kaum zugeben, dass sie ChatGPT zu Rate ziehen, weil sie damit zugleich zugeben würden, dass sie nicht wissen, wie sie mit Patienten sprechen sollen. Aber eigentlich spricht auch nichts dagegen, sich auch von ChatGPT Rat zu holen. Wie man den beurteilt und umsetzt, ist ja doch eine andere Sache.
Ähnliche Beiträge:
- ChatGPT-4 im Persönlichkeitstest: Ähnlich wie Menschen, nur offener
- Ökonomie und prekäre Leiharbeit von ChatGPT und Co.
- KI vs. AfD
- »Schule ist eine der größten Bühnen«
- »Das Kinopublikum akzeptiert die Fälschung nicht«
wo holt man die Zeit her eine Krankheit zu finden?
meistens sind diese so versteckt… unauffindbar
Lieber Gottfried,
in den Spießigen Achtziger Jahren gab’s ein Buch > Wege zu Wissen und Wohlstand oder : Lieber Krankfeiern als Gesund schuften.
Glück und Freiheit der Halbgott Prepperoni
Die künstliche Intelligenz hat garantiert keinen Charme, wenn doch viele Ärzt ganz wenig davon haben.
Eine schlechte Nachricht zu übermitteln ist schwierig und erfordert Mut und Fingerspitzengefühl- wer soll das einem Robot beibringen ?
„Ärzte, so wird gesagt, würden allerdings kaum zugeben, dass sie ChatGPT zu Rate ziehen, weil sie damit zugleich zugeben würden, dass sie nicht wissen, wie sie mit Patienten sprechen sollen. Aber eigentlich spricht auch nichts dagegen, sich auch von ChatGPT Rat zu holen.“
Die absolute KO-Erklärung für besagte Mediziner und zugleich eine, in diesem Beitrag getätigte Legitimation für unterdurchschnittliche Leistung! Chapeau.
Wenn ich das Staunen nicht bereits aufgegeben hätte, wäre es hiermit der Fall.
Ein Mediziner für LEBEND:INNEN hat neben fachlicher (wäre wünschenswert) auch über ein hohes Maß an sozialer und empathischer Kompetenz zu verfügen.
Punkt
Liest sich eher wie PR.
Das musste endlich ‚mal gesagt werden – heilt euch doch selber!
In der heutigen Zeit werden Millionen von Menschen durch politische Patienten in eine Situation getrieben…
Vielleicht sollten diese Patienten bei so ner Box fragen, wie kommt man daraus?
Teleprompter sind wohl menschlich vorgefertig, aber der Vortragende erweist sich als störrischer Patient.
Ein paar Minuten später, hört man dann „aus nationaler Sicherheit“ ….
Selbst nationale Sicherheiten werden in die Luft gesprengt, die Patienten schweigen oder fallen durch Fabulationen auf.
Kurze Hintergrundstory von jemanden der sich über Jahrzehnte (immer mal wieder) mit KI beschäftigt hat.
In den 60igern tauchte erstmals die Idee von künstlicher Intelligenz auf. Also die Idee selbst ist älter, aber in den 50/60igern wurde erstmals von Ingenieuren aktiv an KI geforscht und gearbeitet. Die damalige Idee war es, menschliches Wissen in Regeln zu abstrahieren und dann Automaten zu bauen, die diese Regeln abarbeiten. Medizin war eines der ersten Anwendungsfelder solche Regelautomaten.
Es gab drei Ergebnisse dieser Forschung. 1. Medizinische Diagnosenmethoden lassen vollständig in Regelautomaten beschreiben. 2. Computer sind besser als Menschen. 3. Mediziner haben Regelautomaten verboten.
Bezüglich ChaptGPT: Das ist ein Statistikautomat für Texte, nicht für medizinische Diagnosen. Der schwierige Teil in der Medizin ist nicht die Diagnose, sondern das Sammeln und die Beschreibung von Symptomen. Wer auf ChatGPT vertraut, handelt grob fahrlässig.
Der korrekte Ansatz für eine Medizin-KI wäre es, die medizinische Systematik (also die Beschreibung von Symptomen/Erkrankungen) in einer Matrix zu erfassen und dann die Matrix zu benutzen.
Stimmt, vor allem das grob fahrlässig.
Ein anderer Vorreiter war IBM mit den Algorithmen Daten im Zensus mit fatalen Auswirkungen im wwii.
„Wenn ChatGPT Ärzten im Umgang mit Patienten helfen soll“
Verständlicher Umgang mit einem „ChatGPT“ unterfütterten chinesischen Servicerobo:
https://www.t-online.de/tv/nachrichten/panorama/id_100167990/probleme-mit-roboter-frau-rastet-im-krankenhaus-aus.html
Erinnert ein wenig an Weizenbaums Eliza: https://de.wikipedia.org/wiki/ELIZA
„ELIZA ist ein 1966 von Joseph Weizenbaum entwickeltes Computerprogramm, das die Möglichkeiten der Kommunikation zwischen einem Menschen und einem Computer über natürliche Sprache aufzeigen sollte … Das Programm kann über Skripte verschiedene Gesprächspartner simulieren. Bekannt geworden ist es für die oberflächliche Simulation eines Psychotherapeuten …“
Das spricht für die heutige Bildung !!!
Nur wie kann diese Bildung eine Intelligenz schaffen ?????
Dem nächst – dieses Schreiben ist von KI und ohne Unterschrift verantwortungslos !!
Die so etwas anbeten sind noch dümmer, als die Polizei erlaubt!! Und die es erschaffen leiden an EINBILDUNG
was keinesfalls etwas mit Bildung oder Intelligenz zu tun hat.
Liefert Israel mehrere hundert
Panzer in die Ukraine ?
https://orf.at/stories/3320497/
Vielkeicht liefern sie zum Geburtstag von Stephan Bandera, oder aber es wird ein Ringtausch.