Pentagon-Forschungsbehörde will KI-Systeme als “autonome Wissenschaftler”

KI-generiertes künstlerisches Bild. Bild: Rawpixel/CC0

Wissenschaftliche Forschung soll durch generative Sprachmodelle automatisiert werden, die kreativ neue Hypothesen entwickeln und Entdeckungen machen, aber gleichzeitig auch skeptisch sind.

 

Die Darpa, die Forschungsbehörde des Pentagon, ist immer gut für verwegene Ideen. Sie wurde auch nach dem Sputnik-Schock 1958 gegründet, um sicherzustellen, dass die USA im militärischen Bereich technisch-wissenschaftlich immer an der Spitze liegen, wozu gerade auch verrückte oder exzentrische Projekte gehören, die möglicherweise in den Sand gesetzt werden, weil sie (noch oder überhaupt) nicht umsetzbar sind.

Jetzt steigt man auf den KI-Hype auf und will versuchen, ob sich mit KI auch „autonome Wissenschaftler“ als KI-Agenten herstellen lassen. Im Hintergrund steht, dass Chatbots wie ChatGPT nicht nur alle möglichen Textsorten produzieren, sondern auch automatisch Code programmieren können. Warum sollen sie also nicht auch ein Mittel sein, um automatisch wissenschaftliche Entdeckungen, Innovationen oder Hypothesen zu machen?

Ganz überzeugt ist man bei Darpa von der Realisierung wohl nicht. Es wird nur eine Million Dollar ausgeschrieben, um „Basismodelle zur wissenschaftlichen Entdeckung“ mittels Maschinellem Lernen einzureichen. Es geht also erst einmal um innovative Ausführungen zur Durchführbarkeit und zum Beweis des Konzepts zu erstellen.

Das Problem bei den trainierten Modellen wie den Chatbots bislang sei, dass sie keine neuartigen Hypothesen bilden können, weil es diese nicht in den Daten gibt, mit denen sie zum Lernen gefüttert werden. Wären sie enthalten, wären sie natürlich nicht neu. Also dürfen sie vorhanden sein. Ex-Verteidigungsminister Rumsfeld hatte angesichts fehlender Massenvernichtungswaffen im Irak einmal von den „unbekannten Unbekannten“ gesprochen.

Lange Zeit hatte man geglaubt, dass sich das Unbekannte vom Bekannten aus erschließen lasse. Aber Thomas Kuhn hatte gezeigt, dass sich Wissenschaft im Bekannten von Paradigmen einschließt und daher Neues nicht entdecken kann, bis die Anomalien zu groß werden und das Paradigma Risse erhält. Aber weil es dann eben keine Brücke zum Unbekannten gibt, kann man vom unbekannten Unbekannten sprechen. Während man auf der einen Seite emsig darum bemüht ist, den KI-Sprachmodellen politische und moralische Korrektheit beizubringen und alle Halluzinationen auszutreiben, müssten „autonome Wissenschaftler“ hingegen in vieler Hinsicht Grenzen des bislang Wiss- und Sagbaren überschreiten, um Hypothesen zu entwickeln, die einen neuen Blick auch auf experimenteller Basis eröffnen. Man wolle zwar keine Wissenschaftler ersetzen, heißt es pflichtgemäß von Darpa Programm-Manager Alvaro Velasquez, sondern ein Hilfsmittel entwickeln, um „die Erzeugung von Hypothesen zu automatisieren“.

Die KI-Sprachmodelle werden nicht nur „gezähmt“, sie sind kreativ nur insofern, wenn sie aufgrund statistischer Wahrscheinlichkeit beim Raten aus der Spur geraten. Bei der Darpa will man aber wirkliche Kreativität, was gerade umgekehrt Neues bestenfalls aus dem statistisch Unwahrscheinlichen bilden würde, da eine creatio ex nihilo auch bei der Pentagon-Forschungsbehörde wohl nicht erwartet wird.

Zur Kreativität für das Entwickeln von Hypothesen will man den „autonomen Wissenschaftler auch noch als skeptische Instanz, die mit einer irgendwie gearteten Urteilskraft ihr eigenes „Denken“ kritisch begleiten kann. In der Ausschreibung heißt es, man sieht „einen autonomen Wissenschaftler vor, der in der Lage ist, seine eigene Unsicherheit und Skepsis zu charakterisieren und sie systematisch zu erwerben und zu verfeinern, und zwar auf eine Art und Weise, der Partner aus der Wissenschaft vertrauen können. Die daraus resultierende Fähigkeit würde die DoD-Forschung (z.B. in den DoD-Labors) erweitern und die Entdeckungen in allen Disziplinen (z. B. die Entdeckung neuer Materialien oder die neuer Computerarchitekturen für Roboterdesigns) beschleunigen, insbesondere in einer Zeit, in der die Menge an experimentellen Daten und Forschungsarbeiten exponentiell zunimmt.“

Weil oder obwohl man eben gar nicht recht weiß, wie man Kreativität erzeugen kann, werden schon mal Modelle verlangt, wie diese festgestellt werden könnte, was sich eigentlich nur in Bezug auf andere KI-Modelle beurteilen ließe. Die Darpa schlägt vor, dies etwa daran zu messen, wie der „autonome Wissenschaftler“ aus der Kenntnis der Proteinphysik und -geometrie ein gegenüber dem Deep Learning basierten KI-Programm Alphabold einfaches neuronales Netzwerke für die Faltung von Proteinen entwickelt. Kreativität würde hier als Nachahmung des bereits Bekannten gemessen, was aber nicht bedeuten muss, dass auch wirklich neue Hypothesen generiert werden, die sich durch Experimente bestätigen oder optimieren ließen.

Und was den erforderten Skeptizismus betrifft würde die Darpa vorschlagen, diese durch eine „Ungewissheitsquantifizierung und eine Analyse der durchgeführten Experimente in Bezug auf die ursprüngliche Hypothese“ zu charakterisieren. Vielleicht gehe ich da ganz in die falsche Richtung, aber ich würde behaupten, dass Skeptizismus gegenüber dem eigenen Vorgehen Selbstbezüglichkeit voraussetzen würde, weil sich ja nicht einfach ein gegebenes Ziel mit einem erreichten Fortschritt wie bei einem Pegel vergleichen lässt, sondern die Skepsis sich dynamisch auf die Schritte und das Ziel (Hypothese) in unbekanntem Terrain erstrecken müsste. Descartes hat sich auch diesem Problem gegenüber gesehen und eine brachiale Methode als Bias vorgeschlagen: Wer sich in einem Wald verirrt, also den Weg hinaus nicht weiß, sollte am besten irgendeine Richtung einschlagen und daran möglichst geradlinig festhalten, ohne sich beirren zu lassen.

Wissenschaftler des Oxford Internet Institute warnen in einem Artikel in Natur Human Behavior hingegen davor, auch nur KI-Sprachmodelle zur Unterstützung wissenschaftlicher Forschung zu verwenden. Sie verweisen darauf, dass diese dazu neigen, Fakten zu fabrizieren und zu halluzinieren, weil sie nicht auf Wahrheit getrimmt sind, wie immer man dies machen könnte, zumal Wahrheitsorientierung bedeuten würde, Kreativität und Zufall auszublenden. Die Chatbots  seien darauf angelegt, „hilfreiche und überzeugende Antworten zu geben, wodurch sie sich über Garantien hinsichtlich ihrer Genauigkeit oder Übereinstimmung mit den Fakten hinwegsetzen“.

Und wenn man ihnen dann auch noch gerne glaubt, weil man die Chatbots, die menschliche Sprache nachahmen, vermenschlicht, sei das fatal für die wissenschaftliche Praxis: „Unsere Tendenz, Maschinen zu vermenschlichen und Modellen als menschenähnliche Wahrheitsverkünder zu vertrauen und dabei die von ihnen produzierten schlechten Informationen zu konsumieren und zu verbreiten, ist besonders besorgniserregend für die Zukunft der Wissenschaft.” Insgesamt warnen die Wissenschaftler aber überhaupt vor einer Ersetzung menschlicher Wissenschaftler durch „autonome Wissenschaftler“. Die seien unfähig, zwischen Fakten und Fiktionen zu unterscheiden. Wissenschaft sei auch getrieben von Neugier, und die Frage ist tatsächlich, ob Künstliche Intelligenz so etwas wie Neugierde kennt. Andererseits wird Wissenschaft oft industriell unter dem Zwang betrieben, Neues zu finden, was einer automatisierten Neugier entsprechen könnte.

Ähnliche Beiträge:

8 Kommentare

  1. Neulich sagte einer vom Chaos-Klub: “Die KI wird von den Möglichkeiten, die sie hat, überschätzt und von dem Unheil, dass sie anrichten kann, grob unterschätzt”.
    In der Werbung kam später ein Spot “Autonomes Fahren”. Mir graust.

    1. Die Hauptkompetenz von Computern gegenüber Menschen ist die zuverlässige Abarbeitung und Herrschaft über große Datenmengen. Das lässt sich bspw. für Bevölkerungsüberwachung missbrauchen, aber eben auch für wissenschaftliche Entdeckungen in großen Datenmengen nutzen. Genforschung wäre ohne Computer undenkbar.

      Auch menschliche Forscher suchen oft in Datenhalden wie Radiowellenaufzeichnungen aus dem All oder finden in seismograhischen Verknüpfungen Erkenntnis. Das genau können auch Computer sehr gut.

      Die andere, die mindblowing Kreativität kenne ich persönlich aus meinen Träumen, wo ich Nacht für Nacht absolut umwälzende Erkenntnisse und Problemlösungsideen habe, die ich leider während des Aufwachens wieder vergesse.

  2. Amerika scheint selbst zu erkennen, das PR nicht mit Realitäten vereinbar ist.
    Hätte der Staat Substanz, benötigte dieser keine PR.
    Scheisse noch mal, was macht die ‘schweigende’ Konkurrenz?
    Aus meiner Sicht, die Konkurrenz gewinnt in Kriegen durch ihren technologischen Fortschritt, also auch in der KI ‘Peripherie’. Tja, wenn Maulhelden verkommen in ihrer eigenen Propaganda…

    PS seit nicht traurig, alles ist so gewollt

  3. Ein neuronales Netz ist in der derzeitigen Ausführung ziemlich primitiv.

    1.) Neuron summiert die gewichteten Eingänge und schaltet meist über eine Aktivierungsfunktion (z.B. Sigmoid -1, +1) den Ausgang. Sigmoid weil einfach differenzierbar bzw. integrierbar
    2.) Es gibt verschiedene Topologien und in der Regel wird das Backpropagation Netzwerk verwendet, was Feedbackschleifen des Netzes erzeugt, um es zu lehren.
    3.) Das neuronale Netzwerk ist also vollkommen blöd und lernt nur das was der Lehrer vorgibt indem an den Eingangsgewichten geschraubt (Error-Reduktion) wird, bis das gewünschte Ergebnis am Ausgang anliegt.

    Beim FSD 12 (Full Self Driving ab Version 12 von Tesla) weiß das Netzwerk gar nicht was eine Ampel ist und was die Farben bedeuten. Es hat einfach nur gelernt wie sich andere Verkehrsteilnehmer verhalten und macht dasselbe bezogen auf die vorhandenen Testdaten. Kurz gesagt Intelligenz ist dafür nicht notwendig! Schön wie die Propaganda funktioniert! Vorteil es müssen nicht für jeden Spezialfall Algorithmen geschrieben, angepasst werden, weil es sie nicht mehr gibt.

  4. Als die Rechner aufkamen, haben wir uns alle bemüht, alles rechnergerecht zu machen.
    Also wird die Welt auch KI-gerecht werden. Neues gibt es einfach nicht mehr.

  5. An dem Tag, wo Russland besiegt ist und seine Führung tot, die Nato ihren Blitzkriegsieg feiert – an dem Tag wird eine KI, genannt die tote Hand, eine Rakete in den Himmel schicken, die alle Atomwaffen per Signal starten lässt.
    Diese KI überwacht das Leben in Russland und versteht wann es aufhört.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert