KI verbessert Lauschangriffe auf das Gehirn

Die Röntgenaufnahme des Kopfes eines Versuchsteilnehmers zeigt die Platzierung von Elektroden über den frontalen (oben) und temporalen (unten) Regionen des Gehirns. Diese Elektroden wurden auf der Oberfläche des Gehirns angebracht, um die Ursprungspunkte epileptischer Anfälle zu lokalisieren. Während sie tagelang in ihren Krankenzimmern warteten, meldeten sich die Patienten freiwillig für andere Hirnuntersuchungen, darunter eine, bei der versucht wurde, die Hirnregionen zu bestimmen, die auf Musik reagieren. Bild: berkeley.edu

Neurowissenschaftler konnten rekonstruieren, was Menschen denken oder sehen – und jetzt auch anhand von Pink Floyds Another Brick in the Wall, ungefähr was bzw. wie sie etwas hören.  Sind unsere Gehirne bald nicht mehr privat?

 

Die Gedanken sind frei, heißt es in einem Volkslied voller Hoffnung, dass es noch ein Refugium gibt, das privat bleibt, wenn man es denn will. Das Gehirn im Schädel ist aber seit Jahrzehnten Ziel von Lauschangriffen und Versuchen, es direkt zu manipulieren. Und es entstehen immer mehr Löcher, durch die man das Gehirn beim Verfertigen von Gedanken beobachten kann. Jetzt haben Neurowissenschaftler aus Gehirndaten rekonstruiert, wie Menschen Albany Medical Center von Pink Floyd hören. Das ist natürlich zynisch, weil damit auch die Schutzwände der Gehirne erodieren.

 

Die Gedanken sind frei,

wer kann sie erraten,

sie fliehen vorbei

wie nächtliche Schatten.

Kein Mensch kann sie wissen,

kein Jäger erschießen,

es bleibet dabei,

die Gedanken sind frei.

Das Lied ist Ende des 18. und Anfang des 19. Jahrhunderts entstanden. Es war ein Lied gegen die Einschüchterung und gegen die Macht, für die Unbeugsamkeit des Einzelnen, der trotz aller Verbote und Zwänge nicht gebrochen werden kann und ein gesellschaftliches Atom bleiben sollte. Aber es war auch eine Zeit, in der die Privatheit des bürgerlichen Subjekts und seiner Familie gegen den Staat gefeiert wurde, von dem man sich absetzte, während sich auch die Freiheit des Marktes und der Eigentümer der Produktionsmittel durchsetzten. Das Gehirn war noch eine Black Box, ebenso die psychologische Erschließung  des dunklen mentalen Kontinents.

Schon lange wird versucht, Gehirnprozesse zu verstehen und zu rekonstruieren, mithin ein digitales Gehirn zu erschaffen, das so wie das biologische des Menschen funktioniert. Davon sind wir noch entfernt, wenn es denn je gelingen sollte, schließlich ist das biologische nicht nur elektrisch ein gewaltiges neuronales Netzwerk, sondern auch nass, d.h. von Neurotransmittern und Hormonen überflutet. Das Fatale am verstehenden Rekonstruieren ist natürlich, dass man nicht  nur mit dem  Belauschen der Gehirnaktivität  in bestimmten Arealen wissen könnte, was jemand denkt, wahrnimmt oder fühlt, sondern dass man eben das auch in die Gehirne einspeisen könnte. Man könnte beispielsweise das Lied „Meine Gedanken sind frei“ in das Gehirn eines Menschen einspeisen, was dann das genaue Gegenteil wäre, nämlich ein Beweis, dass die Gedanke nicht frei sind.

Jetzt haben Neurowissenschaftler im Albany Medical Center 26 Patienten, denen wegen einer Epilepsie-Operation Elektroden in ihr Gehirn eingeführt worden waren,  Another Brick in the Wall (Audio) vorgespielt, um die neuronale Aktivität der mit Musik (Töne, Rhythmus, Harmonie und Texte ) verbundenen Areale aufzuzeichnen und zu prüfen, ob sie daraus rekonstruieren können, was die Patienten gehört haben. Am besten funktionierte es am Gyrus temporalis superior und das Belauschen und Rekonstruieren mit der Hilfe von Künstlicher Intelligenz ist tatsächlich einigermaßen gelungen, wie man hören kann. Schwer zu verstehen, aber dennoch nachvollziehbar ist der Text “All in all it was just a brick in the wall” zu hören, der Rhythmus stimmt einigermaßen. Zumindest wenn man weiß, was man hören könnte, ist es eine entfernte Wiedergabe des Songs aus den Gehirnwellen und klingt schon ein wenig unheimlich (Rekonstruktion aus den Gehirndaten). Die Studie wurde in PLoS Biology veröffentlicht.

 

Bild: Bellier L, Llorens A, Marciano D, Gunduz A, Schalk G, Brunner P, et al. (2023) Music can be reconstructed from human auditory cortex activity using nonlinear decoding models. PLoS Biol 21(8): e3002176.  CC BY-SA-4.0

Das ist schon erstaunlich, weil es über die Rekonstruktion von Worten hinausgeht und über die musikalische Wahrnehmung etwa Stimmung und Gefühle transportiert. Betont wird aber, dass das Belauschen der Gehirne beim Musikhören voraussetzt, dass die Gehirnwellen der Hörareale durch Elektroden aufgenommen werden müssen, die unter dem Schädel eingepflanzt sind (Intrakranielle EEG – iEEG). Alles also ganz harmlos, auch wenn Wissenschaftler und Firmen, nicht zuletzt Neuralink von Elon Musk, daran arbeiten, Gehirnchips dauerhaft zu implantieren.

Die Wissenschaftler begründen ihre Forschung wie immer damit, dass man damit Patienten, die wegen eines Hirnschlags, ALS oder einer Lähmung Schwierigkeiten beim Sprechen haben, helfen könne, eben nicht nur ausdrucks- und emotionslos Worte zu rekonstruieren, sondern auch die „Musikalität der Rede“, also die Prosodie. Gleichzeitig betont der Berkeley-Neurowissenschaftler und Psychologieprofessor Robert Knight, der die Versuche mit seinem Team durchgeführt hat, dass man begonnen habe, den „Code zu knacken“, den man bald vielleicht auch abhören kann, ohne Elektroden zu implantieren.

Auch mit funktioneller Magnetresonanztomografie (fMRT) lässt sich aus neuronalen Aktivitätsmustern erkennen, was jemand gerade sieht oder denkt oder welche Absichten er verfolgt. Das geschieht durch KI-Systeme, die die Muster erkennen. Allerdings bleibt die Frage, ob tatsächlich ausschließlich aus neuronalen Aktivitätsmustern erkannt werden kann, was eine Person denkt, hört oder sieht, wenn es kein direktes Korrelat gibt wie beispielsweise die gehörte Musik, sondern die Person etwa einen Song nur innerlich singt oder „aufführt“. Zudem variieren von Person zu Person die neuronalen Aktivitätsmuster, was bislang bedeutet, dass die KI-Erkennung jeweils an einzelnen Personen trainiert werden muss.

Wenn sprachliche Gedanken übersetzt werden sollen, werden in der Regel die  motorischen Areale abgehört, um vorherzusagen, welche Worte die Lippen sagen würden. Dann muss die Person innerlich klar und eindeutig sprechen. Alexander Huth, Neurowissenschaftler an der University of Texas, hat mit seinem Team einen nicht-invasiven Ansatz verfolgt, der interessanter klingt. Die Studie ist in Nature erschienen. Mit fMRT-Scannern und dem KI-Sprachmodell ChatGPT, das Sätze bildet, indem es aufgrund  seiner Lektüre die wahrscheinlichsten Worte auf ein Wort wählt, haben die Wissenschaftler herauszufinden versucht, wie Menschen auf Wörter und Sätze reagieren. 16 Stunden lang mussten die Versuchspersonen jeweils im Scanner ausharren und sich Geschichten anhören. Die durch Durchblutungsmuster erfassten Aktivitäten der Sprachareale wurden mit den Einzelheiten der gehörten Geschichten und der Fähigkeit von ChatGPT verbunden, die nächsten Worte vorherzusagen, um daraus einen Decoder zu bilden, wie das Gehirn einer Person auf Wörter und Sätze reagieren wird. Also nicht, ob und wie er sie versteht, sondern welche Deutung oder Antwort er geben könnte.

Allerdings war der Decoder auf die Person beschränkt, mit der er trainiert wurde, und ließ nicht bei anderen Personen einsetzen. Ob ein universeller Decoder möglich ist, lässt sich schwer sagen. Vielleicht müsste die KI dann an Milliarden von Gehirnen trainiert werden. Unmöglich sollte dies nicht sein, denn auch die unterschiedlichen Gehirne produzieren etwa eine Sprache, mit der sich die Menschen verständigen können, auch wenn vielerlei Mehrdeutigkeiten, Fehlinterpretationen oder Unklarheiten dabei auftauchen. Fehlerfreiheit und Eindeutigkeit könnte daher auch nicht die Leistung eines universellen Decoders sein.

Dann wurden wieder mit einem fMRT aufgenommen, während die Versuchspersonen eine Geschichte hörten, einen Film ohne Worte sahen und sich vorstellten, eine Geschichte zu erzählen. Aus den Aktivitätsmustern erzeugte der Decoder mit den Voraussage-Fähigkeiten von ChatGPT Sätze, die Beispiele davon sein sollen, wie die Person einen gehörten Satz interpretiert. So wurde aus gehörten Satz: „Ich habe noch keinen Führerschein” die Deutung: „Sie hat noch nicht einmal begonnen, das Fahren zu lernen.“ Allerdings war die Reaktion auf den Satz: „Ich sprang nur (aus dem Wagen“ schon ziemlich schräg: „Ich musste sie aus dem Wagen schubsen.“

Ein Problem war, dass dann, wenn die Versuchsperson einen Satz hörte und etwas anderes dachte, nicht mehr erkannt werden konnte, was sie gehört hat. Ob man mit der Methode wirklich besser versteht, wie Gehirne aus der Sprache Bedeutung schaffen oder eher projizieren, ist noch nicht absehbar. Eine Gefahr dürfte sie auch nicht darstellen, da sie auf fMRT und damit auf die Kooperation der Person angewiesen ist. Und solange es keinen universellen Decoder oder Übersetzer gibt, ist das auch einfach zu aufwendig.

Ähnliche Beiträge:

12 Kommentare

  1. So, so, jetzt können “die” wie die Indianer an der Schiene hören wann der Gedankenzug kommt. Echt eine Leistung die, die Menschheit braucht.

    1. Erkenntnisse sind nicht per se schlecht, das Problem ist immer was daraus gemacht wird.
      Gut, die Erfahrung sagt besser lasst die Finger davon, den die, mit denen die Macht ist, gehören nicht zu den Guten, auch wenn sie das Glauben.

        1. Kontrolle kann ich -nichts- gutes abgewinnen.
          Ich hatte aber schon immer eine Schwäche dafür, zu verstehen wie was funktioniert, Ich habe schon als Kind mein Spielzeug auseinandergenommen, um zu sehen was drin ist, anstatt damit zu spielen.

        2. Brain-Computer-Interface – zum Beispiel.
          https://www.spiegel.de/wissenschaft/technik/hirn-computer-schnittstelle-gedankensteuerung-in-echtzeit-ermoeglicht-a-840015.html
          Man kann Computer mit den im Text angesprochenen EEG trainieren damit dieser Befehle wie Buchstaben oder Kursurbewegungen erkennt. Man kann aber auch den Patienten eine Elektronenmatte implantieren damit ALS-Patienten eine bessere Kommunikationsmöglichkeit haben. Oder Anfälle bei Epilepikern schneller erkannt werden.

          Es gibt sogar Versuche Roboter mit Hirnstromkurven zu trainieren. Aber auch hier müssen die individuellen Hirnstrommuster “abgenommen” werden damit die Maschine Kommandos erkennt. Zur Zeit ist das noch zu langsam und umständlich, andere Methoden der Befehlseingabe sind schneller. Außerdem sind diese Roboter dann auf die Hirnströmmuster der “Programmierer” geeicht die dann auch noch als Bediener fungieren müssten. Deshalb ist das Ziel ja ein Allgemeines und Umfassendes Modell des Gehirns so das man irgendwann mal Eine Tasse Kaffee denkt und zack steht sie schon vor einem …

    2. Das wir uns weiterentwickelt haben ist ja schön und gut, allerdings gehe ich davon aus, dass das was die Menschheit gerade macht wieder einmal demonstriert, was Sie schon immer haben wollte: Macht. Es werden Dinge erfunden, die uns das Leben einfacher gestalten können, allerdings denkt kaum jemand mehr selbst nach, man hört ja wirklich nur noch KI, AI, usw. Der Mensch ist selbst zu faul zum denken geworden. Wenn es jetzt schon so ist, wie soll da die Zukunft aussehen? Wird die Regierung dann noch mächtiger als Sie es schon ist? Und der Otto-Normalverbraucher hat immer Joch nicht genügend Geld für seine Grundbedürfnisse. Einfach nur noch traurig.

  2. Der Lauschangriff ist tägliches ein Geschäft der Geheimdienste und das seit Jahrzehnten.
    Sollten die Erkenntnisse tatsächlich eine Grundlage besitzen, hervorragend, dann könnte man jeden Politiker der dich nicht mehr erinnert, an diese technische wissenschaftliche Errungenschaft anschließen, um ihren Wahrheitsgehalt zu überprüfen. Jeder Akt in der Politik könnte auf dem Prüfstand für eine wahrhaftige Demokratie überprüft werden, da dieses Personal ja nur noch unterdurchschnittlich entwickelt ist, wird die Fehlerquote zugunsten der Bevölkerung gut geschrieben.
    Hier könnten zukünftige Wahlen, ausserdem den lästigen Ausschuss ausondieren!
    Man muss es halt auch mal dann entsprechend zur Diskussion bringen.

  3. Danke für die viele Recherchearbeit zu dem Thema, Herr Rötzer. Auch wenn die Möglichkeiten noch in den Kinderschuhen stecken, ist es dennoch gruselig sich vorzustellen, was man damit anrichten könnte.

  4. Was Rötzer hier beschreibt ist im Grunde nur die Fortführung dessen was Bauman & Lyon schon vor Jahren erörterten. Nur mit noch mehr Daten, noch mehr Drohnen und noch mehr Disziplin.

    Allerorten Überwachungskameras, an vielen Ecken ein IMSI-Catcher und wem das noch nicht reicht, für den gibt’s NetzDG und stille SMS. Die Weinbergschnecke trägt ein Haus mit sich herum, der moderne Mensch sein individuelles Panoptikum in Gestalt von Smartphone und Fitnessarmband. Wobei so ein Schneckenhaus wirklich noch eine smarte Erfindung der Natur war. Das nur vermeintlich schlaue Telefon des Menschen ist ja eher dumb und macht seinen Besitzer numb.

    Doch wenn die Entwicklung so weitergeht, werden in 20 Jahren die Überwachungskameras auch erfassen, ob ein Passant brav den Müll getrennt hat und die richtigen Blutwerte aufweist, während IMSI-Catcher seine Hirnströme abschnorcheln. Dann ist’s vorbei mit „Die Gedanken sind frei“.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert