
Mitte 2023 hatte der dänische Psychiater Søren Dinesen Østergaard von der Universität Aarhus einen Beitrag im Schizophrenia Bulletin publiziert, in dem er davor warnte, dass Menschen mit psychischen Störungen durch die Kommunikation mit generativen KI-Chatbots wie OpenGPT eine Psychose entwickeln könnten. Die kognitive Dissonanz zu wissen, dass der Chatbot keine Person ist, während sein Verhalten vom Gegenteil zeugt, könne einen Wahn auslösen. Inzwischen hat sich herausgestellt, dass die Interaktion mit KI-Chatbots tatsächlich Wahnvorstellungen auslösen kann, weil diese Vorstellungen der Menschen bestätigen und sie so in eine Blase hineintreiben, die in Psychosen oder auch Selbstmord münden können.
Jetzt hat Østergaard in einem Brief an das Wissenschaftsjournal Acta Psychiatrica Scandinavica vor einer weiteren Gefahr gewarnt, die von generativer KI ausgeht. Das ist nun zwar nicht so neu wie seinerzeit die Warnung vor KI-Psychosen, sondern der Psychiater erweitert nur die Sorge, dass die Verwendung von KI zur Unterstützung kognitiver Tätigkeiten wie Schreiben, Lesen, Verstehen oder Denken bzw. zu deren Ersetzung auch die Wissenschaft beeinträchtigen wird.
Die Idee ist ebenso einfach wie auf den ersten Blick einleuchtend. Wenn kognitive Arbeit an die KI erfolgreich outgesourct werden kann, können die Kapazitäten verkümmern („cognitive offloading“). Das ist ähnlich wie andersherum, dass das Erlernen neuer Kapazitäten wie Lesen, Schreiben oder Denken nur möglich ist, wenn das Gehirn flexibel oder plastisch ist und dafür neuronale Netze übernommen werden können, die zuvor anderweitig genutzt wurden oder die neu vernetzt oder gebildet werden (“neuronal recycling hypothesis”). Das geschieht auch nach Schlaganfällen, wenn Zellen in Gehirnarealen absterben und Lähmungen, Sprach- oder Wahrnehmungsstörungen verursachen, die nach und nach verschwinden können, wenn das Gehirn den Verlust ausgleichen kann.
Gerne vergleicht man das kognitive Outsourcen von neuronalen Funktionen mit Muskeln, die verkümmern, wenn die Tätigkeiten immer weniger ausgeübt werden. Der Vergleich ist aber wohl schief, denn das Gehirn schrumpft nicht und die weniger beanspruchten Netzwerke könnten für andere Funktionen genutzt werden. Nur wäre die große Frage, was die Leere füllen könnte oder ob die Menschen schließlich „ausgesaugt“ zurückbleiben?
Der Psychiater beschäftigt sich konkret mit der Frage, was mit wissenschaftlicher Innovation geschehen wird, wenn Wissenschaftler sich immer mehr bei ihrer Arbeit der KI bedienen, die viele Aufgaben übernehmen und besser ausführen kann. Manche Menschen könnten für wissenschaftliches Denken begabt sein, aber im Regelfall würde man dies durch Ausbildung und Praktizieren lernen. Letztlich könnten wissenschaftliche Entdeckungen automatisch durch die KI erfolgen, sofern sie das vermögen, was umstritten ist, oder der einstige Wissenschaftler wird zu einem Bediener der Maschine, die Aufgaben selbständig löst oder daran scheitert.
Als Beispiel für seine Befürchtung, dass eine zu starke Nutzung von KI im Wissenschaftsbetrieb Kreativität beschädigen könnte, verweist er auf die KI-Forscher Demis Hassabis und John Jumper, die 2024 den Nobelpreis für Chemie gewonnen haben, weil sie das Potenzial der KI zur Unterstützung der wissenschaftlichen Entdeckung demonstriert haben. Sie nutzten das KI-Modell AlphaFold2 und konnten damit die dreidimensionalen Strukturen aller bekannten 200 Millionen Proteine mit großer Genauigkeit vorhersagen.
Østergaard behauptet, dass der Durchbruch nicht wegen der KI geschah, sondern auf der Grundlage der jahrelang ohne KI gelernten wissenschaftlichen Arbeitens der beiden Forscher: „Ich würde behaupten, es ist nicht selbstverständlich, dass selbst Leute wie Hassabis und Jumper das Niveau eines Nobelpreisträgers erreicht hätten, wenn die von der generativen KI-Revolution entwickelten Tools, zu denen sie selbst beitragen, schon zu Beginn ihrer Karriere – oder als sie in die Grundschule kamen – verfügbar gewesen wären.“
Begründet wird dies mit Verweis auf eine Studie von Wissenschaftlern am Media Lab des MIT, die herausgefunden und mit EEG belegt haben, dass häufige Benutzung des Large Language Models (LLM) ChatGPT relativ schnell einen Abbau von kognitiven Kapazitäten nach sich zieht (Macht die starke Nutzung von Künstlicher Intelligenz dumm?).
Wenn sie diese KI-Werkzeuge bereits in der Grundschule oder beim Studienbeginn zur Verfügung gehabt hätten, dann hätten sie „möglicherweise einfach nicht genug Gelegenheit gehabt, ihr logisches Denken zu trainieren“. Das kognitive Defizit, das dadurch entsteht, der KI die Denkarbeit zu überlassen und bestimmte kognitive Fähigkeiten gar nicht mehr auszubilden, könnte verhindern, so Østergaard, dass es künftig innovative Wissenschaftler wie Hassabis und Jumper gar nicht mehr geben wird. Wissenschaftliche Entdeckungen könnte es allerdings theoretisch weiterhin geben, wenn KI-Systeme tatsächlich imstande wären, mit welchen Methoden auch immer oder mit Versuch und Irrtum neue Hypothesen zu bilden und mit diesen Entdeckungen zu machen.
Für den Psychiater ist ein entscheidendes Problem beim kognitiven Schwund des Denkens durch Outsourcing an die Denkprothese, dass Menschen sich immer mehr auf die Maschinen verlassen müssen, aber sie nicht mehr zu verstehen und dadurch die Kontrolle zu verlieren. Wahrscheinlich bleibt dann eine schrumpfende Denkelite, die noch in der Lage ist, die intelligenten Maschinen zu kontrollieren und in ihrem Sinne weiterzuentwickeln – vielleicht auch deswegen, weil deren Gehirne Cyborg-mäßig mit KI-Implantaten ausgestattet sind.
Ähnliche Beiträge:
- Macht die starke Nutzung von Künstlicher Intelligenz dumm?
- Mit Künstlicher Intelligenz lassen sich Entscheidungen beeinflussen
- Lassen sich menschliche Gehirne durch einen Input „für immer verrückt“ machen?
- Roboter sollen verstehen, wie es ist, ein Mensch zu sein
- Gesetzesentwurf in den USA: KI-Systeme sollen nicht heiraten oder Vorgesetzte werden




Sind Journalisten und Propagandisten die ersten Opfer.
Oder die zweiten?
[] Ja
[] weeß ick nu wirklich nich
[] Gott-sei-Dank
[] Gott sei bei uns
[] ______________
So lange wir keine künstliche Intelligenz haben, brauchen wir uns darüber keine Gedanken zu machen.
Intelli .. häh?
Die gleichen Kriterien gelten auch für Ökonomien als ganzes ..
KI ist wie andere Technologien auch, man kann diese für echt progressive Entwicklungen einsetzten, oder aber auch das Gegenteil…
Der Gesellschaftliche Rahmen macht am Ende die Vorgaben ..
Ich persönlich mag Googles KI zb, echt schon viele hilfreiche Tipps mir gegeben gerade bei Problemen OS, wenn es um Mechanismen ging die tief in solchen Systemen verankert sind ..
Google hat mir also geholfen , geistig gesund zu bleiben o)))))
Das eigentliche Problem ist Kommerz, die Anbieter müssen Milliarden verdienen wenn Ihre Produkte rentabel sein sollen, sonst sind Sie weg vom Fenster ..
Wie viele Psychosen oder Neurosen werden alleine durch unerwiderte Liebe ausgelöst ?
Hat man jemals angefangen diese daraufhin Kritischer zu sehen ?
Und H. G. Wells hat’s vorhergesehen: die Menschheit auf ihrem Weg zu den Eloi; noch genau eine Kurve und dann immer geradeaus!
Jeder, der keine künstliche Intelligenz als Prothese braucht, kann die Frage beantworten.