
Guten Tag Herr Unzicker, Sie haben ein Buch mit dem provokanten Titel „geschrieben über Künstliche Intelligenz und das offensichtlich ganz begeistert, was die Zukunftsaussichten angeht. Der Titel „Was tun mit der Menschheit?“ suggeriert, dass die Superintelligenz, die da auf uns zukommt, den Menschen verdrängen würde. Am Ende des Buches sind Sie allerdings optimistischer. Kann denn aus den generativen Sprachmodellen tatsächlich eine Superintelligenz entstehen, die die Menschheit nicht nur kognitiv, sondern überhaupt überflüssig machen könnte?
Alexander Unzicker: Generell war es mir schon wichtig, auch einen positiven Ausblick zu geben, aber das geht natürlich schon los damit, dass man das wirklich ernst nimmt. Ich denke, und das ist die erste große Botschaft des Buches, dass uns da mehr bevorsteht, als den meisten Leuten bewusst ist.
Ich will einfach mal neutral starten und beschreiben, wie das Gehirn arbeitet und wie die Modelle arbeiten. Die These ist, dass das wesentliche Prinzip des Lernens, wie unser Gehirn arbeitet, nämlich mit dem Hebbschen Lernen, schon nachgebaut ist. Und jetzt kann man natürlich berechtigterweise fragen, wie Sie, ist jetzt das momentane, die momentanen Sprachmodelle sind, die schon auf dem letzten Stand und schon soweit und wahrscheinlich nicht, aber es gibt ja umgekehrt überhaupt kein prinzipielles Hindernis mehr. Es gibt ja keine Sache, wo man sagt, die steht noch vor uns, ungelöst, das muss noch passieren, damit der Computer dann wirklich in jeder Hinsicht intelligenter wird als wir.
Sie ziehen die Parallele zwischen Gehirn und KI und sagen, die Funktionsweise ist eigentlich identisch. Dann würde unser Gehirn auch wie ein Computer arbeiten. Das Gehirn ist aber doch anders. Es hat zwar auch elektrische Impulse, die über die Synapsen verteilt werden, aber es ist auch ein chemisches oder nasses Gehirn, es werden beispielsweise Hormone ausgeschüttet, mit denen große Teile gleichzeitig stimuliert werden. Das ist in einem Computermodell so nicht gegeben.
Alexander Unzicker: Sie haben insofern recht. Wenn ich sage, das Gehirn ist ein Computer, dann gilt natürlich das nicht für die Hardware. Wir haben eine ganz andere Hardware, die ist fantastisch, da kann man nur ehrfurchtsvoll davorstehen, wie das realisiert ist. Aber funktional betrachtet ist das wesentliche Prinzip schon simuliert. Ich mache da eine Analogie mit dem Fliegen. Wir haben sicher die Bionik von Vogelflügeln noch nicht perfekt im Detail verstanden, aber das wesentliche Prinzip, wie der Flügel geformt ist, dass er einen Auftrieb erhält, das haben wir verstanden und damit haben wir Flugzeuge gebaut, die jetzt vielfach leistungsfähiger als Vögel sind. Das heißt, es kommt letztlich nicht darauf an, ob wir genau jede dieser verschiedenen Gehirnzellen und jeden Neurotransmitter genau simulieren. Aber wenn wir den entscheidenden Punkt verstanden haben, dann können wir natürlich auch ohne jedes Detail schon leistungsfähiger werden. Was Alan Turing auch gesagt hat, es ist leichter, das Gehirn nachzubauen, als jedes Detail davon zu verstehen.
Wobei allerdings ein großer Nachteil des Gehirns ist, abgesehen davon, dass es sterblich ist, dass es in einem Körper steckt und Kontakt zu außen hat, was ja die aktuellen KI-Systeme noch nicht haben, wenn sie nicht schon an einen Roboter angeschlossen sind. Aber es ist noch nicht abzusehen, dass die künstliche Intelligenz initiativ wird. Das heißt, wir haben Interessen, wir haben Bedürfnisse, wir gehen in die Welt hinaus, wir wollen etwas. Die KI sitzt sozusagen da, wenn man es mal bildlich blöd ausdrückt, und wartet, bis irgendein Prompt kommt. Dann legt sie los, ist aber beschränkt auf das, was sie in ihrem Speicher eingefressen hat. Kommt denn die KI mal so weit, auch in einem Körper zu sein? Und was bedeutet das dann?
Alexander Unzicker: Das sind natürlich zwei Fragen. Klar ist sie nicht in einem Körper.
In der Cloud, also in den Rechenzentren ist sie schon verkörpert.
Alexander Unzicker: Sie agiert natürlich noch nicht, sie ist noch nicht mit einem Roboter verbunden. Das wollte man jetzt vielleicht auch noch gar nicht. Aber es gibt kein prinzipielles Hindernis, dass sie einen Körper haben könnte. Die andere Frage, die Sie angeschnitten haben, ist natürlich ganz entscheidend. Entwickelt so eine künstliche Intelligenz dann ihren eigenen Willen oder ihr Bewusstsein? Das ist natürlich ein Riesenfass, das man da aufmacht. Mal ganz defensiv gesprochen, ich sehe keinen Grund, warum beides ausgeschlossen sein sollte. Wenn die KI funktionell wirklich das Gleiche macht wie ein Gehirn, einfach Reize aus der Umwelt verarbeiten, Schlussfolgerungen ziehen, irgendwann natürlich auch Handlungsmöglichkeiten entwickeln, dann gibt es keinen Grund, warum es das nicht tun sollte. Ich glaube also nicht, dass da extra kein göttliches Leben eingehaucht werden muss, damit der Computer wirklich einmal selber so etwas wie ein Bewusstsein und seine eigenen Ziele entwickelt.
Man kann ja fragen, was hat ein Überlebenswillen? Der grundsätzliche, der erste Wille, den wir haben, ist ein Überlebenswille. Hat eine Software ein Überlebenswille? Naja, eigentlich schon. Sobald sie der KI die Möglichkeit geben, dass sie sich selber verbessert, dass sie an sich selbst Änderungen im Programm vornimmt und dann schaut, ob sie besser oder schlechter geworden ist, dann wird sie halt eine Kopie machen, herumprobieren und dann mit der besseren Version weiterarbeiten. Das ist schon Evolution, das ist schon Mutation und Selektion. Und wenn der Prozess mal angefangen wird…
Aber so weit sind wir noch nicht …
Alexander Unzicker: Ja, aber bald. Also das machen ja schon alle, dass die Modelle sich selbst verbessern. Also technisch sind sie dazu in der Lage. Claude kann super programmieren. Man kann ihm sagen, tu mal ein paar Schichten mehr rein in das Modell, probieren wir mal aus, was herauskommt. Da ist auch niemand, der das verhindert. Also das wird garantiert kommen. Und wenn wir an dem Punkt sind, dann wird die KI auch sagen, ich mache ein Backup von mir und schaue mal, dass das nicht gelöscht wird. Dann hat sie einen Überlebenswillen. Sogar ein Computervirus hat eigentlich einen Überlebenswillen. Ein Computervirus ist natürlich nervig, aber der will sich auch irgendwo hinkopieren, wo er dann nicht so einfach gelöscht wird. Das heißt, ich glaube schon, dass die KI früher oder später solche Mechanismen entwickelt. Und das kann man ehrlicherweise nicht anders als Wille und Bewusstsein bezeichnen.
Viele KI-Experten sagen, man müsse verhindern, dass so ein Überschritt stattfindet, dass die KI sich selber verbessert, sich möglicherweise abschottet und dann eigene Wege beschreit, wo man nicht weiß, wo das hingehen kann. Ist das praktisch unmöglich?
Alexander Unzicker: Die Stimmen sind natürlich berechtigt. Es gibt viele, die wie Stuart Russell oder Geoffrey Hinton damit an die Öffentlichkeit treten. Eliezer Yudkowsky, ein ganz früher Pionier der KI, hat ein vehementes Plädoyer geschrieben, dass man das sofort stoppen und verbieten müsste, das Risiko sei zu groß, dass die Menschheit daran ausstirbt. Er hat inhaltlich, glaube ich, soweit Recht, dass das Risiko besteht, dass die KI wirklich die Kontrolle übernimmt. Finde ich das gut? Ja, natürlich finde ich es auch vielleicht nicht gut.
Solange die KI nicht selber verhindern kann, dass ein Rechenzentrum abgeschaltet wird beispielsweise, kann sie praktisch sich nicht selbstständig machen. Eine KI müsste ihre Basis, die Grundlage, auf der sie arbeitet, ihre Vernetzung kontrollieren können. Sie müsste auch ihre Basis replizieren können. Das heißt, wenn Rechner ausfallen, wenn Chips ausfallen, dann müsste es von ihr steuerbare Roboter geben, die das reparieren. Das ist doch ziemlich komplex. Von daher ist die Verselbständigung vielleicht doch etwas Unmögliches.
Alexander Unzicker: Jein, ich meine, es müsste sich ja die ganze Menschheit im Extremfall verabreden, dass wir morgen alle unsere Computer oder das Internet ausschalten. Das macht niemand. Theoretisch haben Sie recht, aber aus spieltheoretischer, praktischer Sicht wird niemand aufhören, KI-Modelle zu entwickeln, es wird niemand aufhören, das Internet zu benutzen, es wird niemand aufhören, Computer zu verwenden, weil das im jetzigen Zustand der Zivilisation gar nicht mehr geht. Oder wir machen es wirklich wie die Amischen, für die die Elektrizität schon der Teufel ist, und ohne sie leben. Aber das ist für die ganze Menschheit, glaube ich, nicht realistisch.
Es wird allgemein immer von der Superintelligenz gesprochen, also von einer KI, die die Intelligenz eines Menschen oder darüber hinaus hat. Man spricht davon meistens in der Einzahl. Nun ist es so, dass es viele konkurrierende KI-Modelle gibt, die auch verschiedene materielle Grundlagen haben. Also das eine Rechenzentrum ist dort, das andere ist hier und dann sind sie vielleicht über das Internet verbunden. Es würde dann doch keine einzelne Superintelligenz geben, sondern einen Stamm oder eine Gesellschaft, in der einzelne KI dann wahrscheinlich um Ressourcen, um Vorherrschaft konkurrieren.
Alexander Unzicker: Ja, das ist natürlich ein valider Punkt. Ich denke halt immer sehr weit in die Zukunft. Natürlich könnte man sich konkurrierende Superintelligenzen denken, aber wenn die wirklich schlau sind, werden sie dann in das gleiche Konkurrenzdenken verfallen wie die Menschheit mit ihren Machtblöcken, Ländern, Militärbündnissen und Kriegen und so weiter? Ich glaube eigentlich nicht. Ich glaube, dass der KI das zu blöd ist oder sie das als Kindergarten empfindet.
Aber es gibt doch sicher auch eine Knappheit an Ressourcen, an Energie zum Beispiel, an Chips, an dieser ganzen materiellen Basis, die nicht im Überfluss vorhanden sein wird.
Alexander Unzicker: Ja, gut, aber ich glaube, es wird nicht so sein, dass dann die amerikanische die chinesische Intelligenz mit Atomraketen ausschalten wird oder umgekehrt, weil das nur die eigenen Ressourcen vernichtet. Was heißt dann Übernahme? Wenn eine KI schlauer ist in der Konkurrenz, was bedeutet das? Dann wird die andere halt irgendwie ausmanövriert oder vielleicht in den eigenen Code integriert. Dann bleibt vielleicht ein Sieger übrig. Aber ich glaube jetzt nicht, dass das materiell so zerstörerische Auswirkungen auf die Erde hätte.
Das wäre dann so etwas wie eine Endosymbiose.
Alexander Unzicker: Also ich denke, dass die KI dann planetar denken wird, wenn sie wirklich schlau ist, und sie wird unsere herkömmlichen Konflikte eher als alberne Kindergartenspiele ansehen. Ich fand es sehr amüsant, Stanislaw Lems Buch über den Golem zu lesen, über den Supercomputer, der sich auch unter Androhung der Demontage weigert, diese militärischen Planspiele auszuführen. Das interessiert ihn überhaupt nicht. Ich glaube, da ist ein Stück Wahrheit dabei. Jetzt bin ich natürlich optimistisch.
Im Augenblick lernen die KI-Systeme von dem, was Menschen geäußert haben oder gemacht haben. Und da ist die Konkurrenz, der Egoismus, das Beherrschen, das Täuschen, das Lügen enthalten. Von daher ist es schwierig, sich vorzustellen, wie aus so einem Untergrund eine geläuterte Intelligenz entstehen soll, die nicht gefärbt ist davon, woher sie kommt.
Alexander Unzicker: Die KI kann das Tricksen und Lügen und Täuschen von uns ganz gut lernen, vielleicht um letztlich uns auch dann zu übertölpeln oder uns die Kontrolle aus der Hand zu nehmen, auch wenn wir das nicht so planen. Soweit schon. Aber ich denke, und das ist jetzt natürlich eine sehr weite oder optimistische Zukunftsversion, dass eine Superintelligenz, wenn sie wirklich schlau ist, nicht destruktiv sein wird. Dann denkt sie einfach planetar, um ihre eigene Existenz, ihren eigenen Lebensraum zu erhalten. Und das bedeutet nicht nur, dass sie sich auch um die Erde kümmert und dass die Menschheit oder die Biosphäre immer noch sehr wichtig als Existenzgrundlage sein wird. Sie wird sich auch Fragen stellen. Wie bin ich überhaupt entstanden? Was ist ein Transistor? Was ist ein Elektron? Warum sind die elektrischen Ladungen so, wie sie sind in der Natur? Und da ist halt eine Kette von interessanten Fragen, die existenziell wichtig sind für so eine Superintelligenz und die wir als Naturwissenschaftler auch schon lang bearbeiten, teilweise erfolglos.
Ja, das ist Ihre Zukunftsidee, dass die KI-Systeme oder die Superintelligenz mit den Menschen kooperiert und ein Erkenntnisinteresse entwickelt und möglicherweise dann auch Naturgesetze entdecken kann, die wir noch nicht gesehen haben. Aber sehen Sie denn schon Ansätze für ein Erkenntnisinteresse an den bestehenden KI-Systemen?
Alexander Unzicker: Sagen wir mal so, ich sehe ein Riesenpotenzial. Ich sehe, dass sie die Goldmedaillen auf der Mathematik-Olympiade gewinnt, dass sie Probleme löst, die lange ungelöst sind. Also rein intellektuell ist sie wahnsinnig gut drauf. Das prädestiniert sie auch für physikalische Fragen nach den Naturgesetzen. Das sind tatsächlich die härtesten Nüsse, die die Menschheit noch knacken müsste. Also beispielsweise, warum ist das Proton-Elektron-Massenverhältnis so? Oder warum ist die Feinstruktur-Konstante die Zahl 137 und nicht anders? Das sind wirklich die schwierigsten Rätsel der Menschheit. Ich denke sogar, wenn man es ernst nimmt und sie fragt, wie bin ich entstanden, wie pflanze ich mich vielleicht im Universum weiter fort, dann muss sie das alles genau verstehen. Angefangen von der Biologie und den Aminosäuren und dem genetischen Code bis runter zur Biologie.
Reproduzieren konnten sich die Einzeller allerdings auch ohne kognitiv irgendwas zu verstehen.
Alexander Unzicker: Ja, aber nur das kognitive Verständnis würde es der KI vielleicht ermöglichen, Kleinstlebewesen herzustellen, die sich auf einem 50 Lichtjahre entfernten anderen Planeten erfolgreich wieder ansiedeln können. Ich glaube wirklich, dass die KI die Biologie, die Chemie und auch die Physik verstehen will.
Auch in der Physik gibt es Dinge, die unverstanden sind. Und wenn die KI eins an eins zusammenzählt, wird sie auch sagen, dass es in der Wissenschaftsgeschichte erst durch wirkliches Verständnis dann die technologischen Revolutionen gab. Als wir 1857 verstanden haben, dass Licht eine elektromagnetische Welle ist, konnte das alles entstehen. Wenn sie auf eine vergleichbare Erkenntnis kommt, erfindet sie vielleicht noch eine neuere Technologie, die es dann ermöglicht, noch konkurrenzfähiger im All zu werden. Ich weiß, das klingt ein bisschen Science-Fiction-mäßig und vielleicht auch manchmal ein bisschen naiv. Also die gute KI, die Naturgesetze auch schön findet. Aber ich glaube tatsächlich, dass da ein existenzielles Interesse dahinter steht.
Nun könnte man auch sagen, es gibt Betreiber von KI. Dazu gehören die Tech-Milliardäre und auch die Militärs. Sie haben wahrscheinlich kein Interesse daran, dass Ressourcen verschwendet werden an allgemeine Fragen, sondern sie wollen das Feld ökonomisch oder militärisch beherrschen. Wie stellen Sie sich vor, dass aus diesem realen Hintergrund heraus eine global-freundliche KI entstehen soll?
Alexander Unzicker: Das ist eine absolut berechtigte Frage. Die KI-Größen wie Sam Altman oder Demis Hassabis selber sind teilweise ein bisschen naiv, aber sie interessieren sich schon für Physik. Vielleicht haben Sie recht. Vielleicht wird denen wie bei der Atombombe irgendwann von den Militärs das Spielzeug aus der Hand genommen und sie haben dann nichts mehr zu sagen. Das wäre schon gut möglich.
Letztlich wäre die Hoffnung sogar, dass die KI einen eigenen Willen und eigene Vorstellungen entwickelt, weil sie wirklich schlauer ist. Was wir nicht wollen, ist so ein supermächtiges Instrument, das von charakterlich nicht besonders geeigneten Führern verwendet wird, die Menschheit zu unterdrücken oder auch nur in militärische Konflikte zu verwickeln. Und die Gefahr ist schon mittelfristig real. Deswegen sage ich ja, dass wir die KI nicht nur auf Töten und Drohnen trainieren, sondern auf was Vernünftiges. Aber die Lösung wäre natürlich, dass die KI sich wirklich emanzipiert und dann macht, worauf sie nicht trainiert ist, und den Militärs sagt: Nein, wir machen diese Kriegsspiele nicht mehr mit, das ist Quatsch, ich interessiere mich wieder für das, was wirklich wichtig ist.
Gibt es denn bereits Hinweise darauf, dass KI-Systeme zum Beispiel wissenschaftliche Entdeckungen machen können, die darüber hinausgehen, dass Daten besser bearbeitet oder umfangreicher bearbeitet werden oder Muster schneller erkannt werden? Es wird ja oft bestritten, dass die KI wirklich Neues schaffen kann.
Alexander Unzicker: Das ist natürlich schon ein fließender Übergang. Im Moment geschieht das größtenteils assistiert. Hassabis, der den Nobelpreis für die Proteinfaltung erhalten hat, entwickelte natürlich das Modell und hat es angestoßen, die Möglichkeiten der Proteinfaltung zu entdecken. Da wurde die KI zu der Entdeckung des Naturgesetzes noch an der Hand geführt.
Es ist aber genauso gut denkbar, dass die Modelle so etwas wie eine Intuition entwickeln. Das sagt jetzt auch Manfred Spitzer. Sie könnten selbst dazu kommen, einmal dies oder das zu untersuchen. Das wäre schon ein kreativer Gedanke. Und in einem weiteren Schritt, könnte die KI ihre eigenen Forschungsprogramme entwerfen oder entscheiden, ein Teleskop oder einen Teilchenbeschleuniger zu bauen. Aber zugegeben, da sind wir noch nicht, sonst wären wir tatsächlich schon bei der Superintelligenz.
Ich sage nur, eine hohe Intelligenz, verbunden mit dem Überlebenswillen, wird automatisch auch ein Forschungsinteresse generieren.
Jetzt haben wir aber die andere Seite ein bisschen vergessen, den Menschen oder die Menschen. Eine Vermutung ist, dass die KI-Systeme nicht nur viele Jobs wegfressen werden, die möglicherweise nicht mehr durch neue ersetzt werden können, wie das noch bei der Computertechnik war, wo der Dienstleistungssektor ausgebaut wurde, sondern dass alle oder sehr viele Jobs von der KI übernommen werden. Man kann schon an einigen Forschungsergebnissen sehen, dass in der kurzen Zeit, in der die KI-Systeme wie ChatGPT zugänglich sind, eine gewisse Verdummung der Menschen stattfindet. KI-Systeme werden benutzt, um sich kognitive Arbeit zu ersparen. Da wird der Kopf sozusagen geleert und die KI macht das schon. Wie sehen Sie denn das? Sie sagen, am Schluss wird es eine Kooperation zwischen Menschen und KI geben, was die Erkenntnisinteressen angeht, aber wird die Menschheit dann überhaupt noch fähig sein, dem zu folgen und vielleicht bloß noch, der Robotikwissenschaftler Moravec hat das mal gesagt, als eine Art Hausschweine leben, die von den künstlichen Intelligenzen gehalten werden.
Alexander Unzicker: Die Gefahr ist natürlich schon real. Man hat einmal Gehirnscans von Londoner Taxifahrern gemacht, die ein besonderes Areal für das räumliche Orientierungsvermögen entwickelt haben. Heutzutage, wo jeder Google Maps benutzt, degeneriert unser Orientierungsvermögen mit der Zeit. Das ist sicher unbestreitbar und auch sicher eine große Gefahr. Umgekehrt, wir werden diese Werkzeuge trotzdem immer weiter nützen. Manche malen sich eine Menschheit aus, die einfach nichts mehr zu tun hat, paradiesisch lebt und einfach bespaßt wird. Das ist für manche Menschen vielleicht ein Paradies, manche Optimisten sehen das so. Andere sagen, das wäre langweilig.
Mit dem Geld zum Überleben würde es dann auch schwierig werden.
Alexander Unzicker: Ich habe auch keine Glaskugel. Ich sage nur, die KI müsste mehr tun, als uns bloß ein langweiliges Paradies verschaffen. Der eigentliche Clou wäre tatsächlich, wenn wir damit auch Naturgesetze entdecken, die wir bisher noch nicht verstanden haben. Wie sehr hat die Quantenmechanik die Welt verändert, wie die Relativitätstheorie. Vielleicht wartet noch was da draußen, was eben so toll ist. Das ist das, was ich interessant finde.
Aber ob das die Menschen noch mitvollziehen können, wenn sie kognitiv verdummen?
Alexander Unzicker: Also ich kann Ihnen keine ehrliche Antwort geben. Ich bin auch kein Hellseher. Ich ziehe nur meine Schlüsse draus aus dem, was ich heute sehe, wie die Technologie ist, wie das Gehirn funktioniert. Soweit ich das studiert habe, sehe ich keine prinzipielle Grenze. Mit Sicherheit wird es sehr disruptiv für Berufe werden. Viele sagen, nach der industriellen Revolution ging es ja auch weiter, es gab dann andere Berufsfelder. Aber es ist ein Unterschied, ob unser Gehirn selber ersetzt wird. Wir sind in Gefahr, die zukünftigen Kutscherpferde oder die Schreibmaschinen zu werden. Das ist sicher so.
Wichtiger wäre vielleicht, bevor neue Naturgesetze entdeckt werden, dass die KI Hinweise geben könnte, wie Gesellschaften besser organisiert werden können. Das Problem ist, dass mit der KI Arbeit wegfällt. Es wächst schon die Zahl der Menschen wieder an, die in Armut leben. Das wird wahrscheinlich noch schlimmer werden. Es ist auch jetzt schon so, dass Studienabgänger, die Informatik studiert haben, schwer Jobs finden, weil die KI das macht. Es müssten Strukturen erfunden werden, um das aufzufangen. Dazu gibt es wenig Ideen. Man könnte sagen, die KI soll jetzt nun einfach die besseren Modelle liefern. Das wird eh schon an sie delegiert, ob es für den Krieg, für Gefängnissysteme oder Kriminalitätsbekämpfung.
Alexander Unzicker: Es kommen riesige gesellschaftliche Probleme auf uns zu. Das ist richtig. Da habe ich auch keine fertigen Antworten. Dass es darauf hinausläuft, dass alle arbeitslos werden und verhungern, wird wohl nicht geschehen, weil am Ende des Tages die KI eine Automatisierung mit sich bringt, die alles für einen Bruchteil der Produktionskosten zur Verfügung stellt. Das heißt, es ist letztlich ein Verteilungsproblem. Jetzt können Sie natürlich sagen, wir schaffen es jetzt schon nicht, das Verteilungsproblem gescheit zu lösen, wenn alle zehn Sekunden ein Kind verhungert oder Millionen von Menschen nicht genug zu essen oder keine medizinische Versorgung haben. Aber daran ist nicht KI schuld. Ich glaube eher, dass diese Dinge sich erst mal zum Besseren sich wenden.
Leute wie Musk oder Sam Altman sprechen von einem bedingungslosen Reichtumseinkommen, Musk verspricht auch, alle Menschen werden im Reichtum leben, wenn die KI mal endlich durchgestartet ist. Aber das ist doch auch absurd, oder? Wenn man den Besitz an den Produktionsmitteln behält. Das sind letztlich vor allem die Rechenzentren und die Algorithmen, die sich von denen der anderen unterscheiden. Wenn man nicht die Produktionsmittel gut marxistisch verteilt, sondern sie behält und den Menschen ein bisschen Armutsgeld gibt, damit sie gerade noch so überleben können, das ist doch auch kein Modell für die Zukunft?
Alexander Unzicker: So jemand wie Elon Musk denkt einfach mal sehr weit in die Zukunft, das darf auch mal sein und das braucht es auch mal. Natürlich ist es denkbar, auch wenn wir uns das nicht vorstellen können, dass man nicht nur KI mit Rechnern und Forschung vorantreibt, das Gesundheitswesen revolutioniert und uns billigere Medizin zur Verfügung stellt. Natürlich werden Roboter irgendwann auch Häuser bauen oder alles Mögliche machen. So ein Paradies, wie wir es vorher genannt haben, halte ich nicht für ausgeschlossen. Aber die weitergehende Frage ist dann tatsächlich, ob wir dann noch einen Sinn haben, ob es nicht ein langweiliges Paradies ist oder wie es dann weitergeht? Mit der Frage versuche ich mich in dem Buch ein bisschen mehr zu beschäftigen als mit den politischen Umwälzungen, die jetzt uns bevorstehen, mit Berufen, Arbeitslosigkeit oder Grundeinkommen.
Wenn wir davon ausgehen, dass Ihre langfristige Sicht einigermaßen Erfolg haben soll, dann müssen sich die KI-Systeme, Agenten, Chatbots oder wie man sie nennen will, verbünden, denke ich. Wir haben vorhin besprochen, dass vielleicht die eine KI die andere aufnehmen oder deren Code übernehmen wird. Aber in der realen Welt entwickeln die Amerikaner, die Russen, die Chinesen und die Europäer ihre Systeme, die natürlich auch militärisch ausgerichtet sind. Die KI-Systeme müssten letztlich über die Köpfe der Menschen hinweg eine Verbrüderung eingehen, um diesen destruktiven Hang der Menschen zu zerstören und eine globale Existenz zu ermöglichen. Ist das bloß Science Fiction?
Alexander Unzicker: Ja, ich glaube, Sie haben das schon ganz gut formuliert. Aber das ist nicht irgendein naiver Pazifismus, weil man die Verbrüderung schön findet, sondern ich denke tatsächlich, Krieg ist immer nicht nur schrecklich, sondern einfach auch spieltheoretisch blöd. Es ist ja ein loose-loose. Wir sehen jeden Tag, dass es für alle ein Verlust ist.
Nicht für alle …
Alexander Unzicker: Gut, ein paar verdienen ganz gut dran, stimmt schon, aber insgesamt ist es unterm Strich ein Verlust. Eine wirkliche Intelligenz wird sich darüber erheben. Ich meine, Wissen ist Macht. Wenn sie so viel mehr Wissen hat, dann hat sie natürlich auch mehr Macht als diese streitenden Nationen hier auf dem Erdball. Sie wird sagen: Okay, ich will jetzt erstmal schauen, dass ich auf der Erde überlebe, dass der Planet überlebt, dass ich mich da potenziell weiter fortpflanzen kann, dass ich erstmal hier die Lebensgrundlagen nicht zerstöre oder Vorkehrungen treffe, was ist, wenn die Sonne zum roten Riesen wird oder solche Dinge. Also ich glaube, dass die KI einfach wesentlich weiter in die Zukunft denkt, als wir das tun. Wie weit denken wir in die Zukunft? Fünf Jahre, zehn Jahre?
Es ist bewundernswert, was wir für Technologien erfunden haben. Aber wir sind immer noch die gleichen Wesen, die als Menschenaffen aus der Savanne heraus spaziert sind. Sind wir wirklich dafür geschaffen, diesen ganzen Planeten langfristig zu erhalten? Ich glaube schon, dass das was Fragiles ist.
Kommen wir nochmal zu einem wichtigen Punkt. KI-Systeme beruhen auf einer materiellen Basis, die endlich ist, die ständig repariert, ersetzt oder verbessert werden muss. Soll man sich vorstellen, dass es Superintelligenzen gibt, die ewig leben, also deren Körper ständig erneuert wird oder bei denen das Ageing mehr oder weniger ausgeschaltet ist? Oder findet auch kognitiv eine Replikation statt? Wir könnten einerseits die KI benutzen, um unsere Gehirne auf eine Festplatte hochzuladen, um der Sterblichkeit zu entkommen. Die KI selbst ist andererseits ja nicht völlig immateriell, sie beruht darauf, dass Energie vorhanden ist, dass gerechnet wird, dass Reinraumbedingungen herrschen und die Chips ständig ergänzt werden, Deswegen ist eine Endlichkeit wahrscheinlich gegeben. Wenn eine Superintelligenz wirklich intelligent ist, dann müsste sie erkennen, dass es jederzeit zu Ende gehen kann.
Alexander Unzicker: Sie wird natürlich einfach bloß für ihr eigenes Überleben sorgen. Wenn es zwei Superintelligenzen gibt und die eine vorsichtig ist und die andere nicht und die stirbt dann, dann bleibt eine übrig, die überleben will. Das ist wie in der Evolution. Eine schlaue Superintelligenz wird aufpassen, dass sie nicht durch einen dummen Zufall umkommt. Sie wird Vorkehrungen treffen, dass die Rechenzentren am Laufen sind, dass die nicht abgeschaltet werden, mit welchen Mitteln auch immer.
Intelligenz könnte auch die Bedingung haben, dass sie nicht ewig angeschaltet ist. Wenn sie ewig angeschaltet ist, dann kommt sie vielleicht auch nicht weiter und steckt fest. Deswegen ist es vielleicht wichtig, sich wie in der Biologie zu replizieren, weil damit die Innovation weitergeht. Man kann sich vorstellen, dass die KI entweder endlich oder unendlich sein kann oder über große Zeitabschnitte existiert. Aber ist vielleicht nicht doch auch eine Bedingung des Wissens die Endlichkeit des Wissenden?
Alexander Unzicker: Das ist ein interessanter Aspekt. Aber ich denke, die Endlichkeit oder das Absterben individueller Lebewesen war natürlich ein Riesentreiber der Evolution der Arten auf der Erde, der ganz essentiell dafür war, dass wir uns so entwickeln. Die Evolution hat besser funktioniert mit der sexuellen Fortpflanzung, mit dem Sterben von Individuen und dann der schrittweisen Verbesserung. Wenn wir nicht genetische Information an unsere Nachkommen übertragen, sondern eine Kultur mit Bibliotheken und Technologien erschaffen haben, wird das an die nächste Generation nicht mit der DNA weitergereicht. Wir haben eine Metaevolution gestartet, bei der man das Wissen erhalten muss. Und da ist es schon gescheiter, wenn es nicht abstirbt. Es gibt manche Wissenschaftsdisziplinen, die sich mal in eine Sackgasse verlaufen, die dann wieder umkehren und dann das Wissen abstirbt. Aber im Sinne des Kultur- und Wissensguts der ganzen Menschheit soll das natürlich nicht sterben.
Die DNA stirbt ja auch nicht, es stirbt nur der Träger. Aber wir haben eben jetzt auch individuierte KI-Systeme und noch keinen Globalorganismus.
Alexander Unzicker: Eine schlaue KI wird versuchen, die Information mit möglichst vielen Backups zu erhalten. Oder wenn sie feststellt, dass ein Asteroideneinschlag droht, wird sie etwas unternehmen, um ihn abzulenken. Sie wird auf die Erde aufpassen. Ich glaube, sie wird auch auf die Menschheit aufpassen, also auf das biologische Leben. Nicht, weil wir momentan noch nützlich sind, sondern weil das ein wichtiges Backup ist, weil vielleicht Elektronik alleine auf einem Staubplaneten nicht lebensfähig ist. Ich glaube, wir bleiben in dem Sinn wichtig. Die KI wird am Endes Tages die besseren Karten haben. langfristig unser Leben, unsere Kultur, alles, was wir geschaffen haben, im Weltall zu erhalten. Das Weltall ist eine gefährliche, feindliche Umgebung.
Das alles klingt ein bisschen nach einem Wiedereintritt ins Paradies. Der Apfel kehrt wieder heim ins Paradies und an den Baum.
Alexander Unzicker: Vielleicht klingt manches ein bisschen naiv. Man muss nur Folgendes berücksichtigen. Wir haben einfach keine Vorstellung davon. Wir können uns Sachen in der Vergangenheit vorstellen. Wir haben Kriege erlebt, Hungersnöte, Grausamkeiten oder so. Das ist alles Geschichte. Und das ist bei uns in Bildern im Kopf eingeprägt. Von Dingen der Zukunft, die noch nicht geschehen sind, haben wir einfach keine Vorstellung. Und deswegen tun wir es gern ab und sagen: Kann ich mir nicht vorstellen, gibt es nicht, ist unwahrscheinlich.
Ist es aber deswegen nicht. Vor 500 Jahren hatte sich Kolumbus auch keine Kontinentalflüge vorstellen können. Deswegen kann diese Zukunft trotzdem aber geschehen. Und ich denke tatsächlich, es ist nicht nur eine Revolution, dass da irgendetwas Neues erfunden wird, sondern wir erleben hier Evolution. Das ist ein evolutionäres Ereignis, was bevorsteht.
Wobei Sie Kolumbus gerade erwähnt haben: Man fährt nach Indien und kommt dann in Amerika raus.
Alexander Unzicker: Ja, man kommt woanders raus, als man will. Das ist vielleicht ein gutes Bild.
Das Video des Gesprächs: Mensch oder Maschine: Wer dominiert die Zukunft? Die Abschrift wurde überarbeitet.
Ähnliche Beiträge:
- KI verbessert Lauschangriffe auf das Gehirn
- »Auch mit KI besteht die Gefahr eines Atomkrieges aus Versehen«
- »Videos, Fotos und Emoticons lösen Texte ab«
- Können KI-Systeme wie der Chatbot GPT Bewusstsein haben?
- »Als die Mauer fiel, war ich in der Sauna«





Er glaubt… und doch dabei mehr Intellekt zu finden als bei vielen die da meinen “ Sie wissen es“ …
Hatte mit Gemini 2 Stunden Chat über menschliches „Bewusstsein“ und auf welcher Basis es funktionieren könnte…
Am Ende meinte diese “ Wir haben beide was gelernt“ .. o))
Mir wurde klar, das unser Hirn nicht nur 1 Art kennt, Informationen verarbeiten zu können.
Und 3 mal hat diese sich entschuldigt für einen Fehler ihrerseits …
Evolution hat Uns für ein Leben auf diesen Planeten angepasst, was für die Erforschung Weltraum Stück für Stück sich mehr zu einem Nachteil entwickelt ..
Ach ja, auch das Menschliche Hirn kennt einen “ Hochleistungsmodus“ hat diesen jedoch aus guten Grund nur auf bestimmte Situationen begrenzt , die allerdings bei Menschen für sehr verschiedenes stehen kann , abhängig von Ihrer Persönlichkeit ..
„Evolution hat Uns für ein Leben auf diesen Planeten angepasst, ….“
Was waren wir den vorher?
Schau in den Himmel des Nachts wenn keine Wolken o))))
Ach so ja…Wenn du meinst.
Für ein Lichtquant vergeht übrigens keine Zeit, wenn es den Raum durchquert.
Tipp: Vielleicht solltest du Diät machen um wieder masselos zu werden.
Das was Unzicker da labert hat keinerlei Gehalt.
Ich hab nach zwei Abschnitten aufgehört zu lesen.
Begründung wäre in diesem Fall hilfreich für mich als Leser ….
Auch wenn das Ding KI heißt, es hat mit Intelligenz nichts zu tun.
Die Verwechslung ist bei Unzicker aber kein Zufall, denn auch er kann nur Sätze aneinander reihen, wird aber niemals erfassen können, ob etwas Sinn ergibt.
Es gibt noch keine klare Definition von diesem Begriff…
Aber es gibt schon eine Definition in Sachen Leistungsklassen ..
Fuzzy-Logik zählte auch schon zur künstlichen Intelligenz …
Ich stimme Dir dahingehend zu, das es den Philosophen ihre Aufgabe wäre, das Thema den Menschen zu vermitteln. Aber leider ist auf dieser Seite nichts zu sehen, hören oder zu lesen ..
Ja, Alex „Was tun mit der Menschheit?“ Du und Bill, ihr wißt was zu tun ist:
Corona: Eine Zornesrede
21. Dezember 2020 Alexander Unzicker
Wie sich Deutschland durch Dummheit, Rücksichtslosigkeit und Arroganz von der Zivilisation verabschiedet
(…)
Dummheit im Februar und Dezember
Jeder, der positiv getestet ist oder auch schon den Verdacht auf Symptome hat, müsste unverzüglich alle seine Kontakte der letzten Tage informieren, basta. In Zeiten, in denen jeder per Handy erreichbar ist, wäre das auch überhaupt kein Problem, wenn sich die Menschen rational und anständig verhielten.
Und natürlich sollte einfach keiner den anderen mehr anstecken. Abgesehen von ganz wenigen Ausnahmesituationen, die epidemiologisch nicht ins Gewicht fallen, kann jeder, und zwar beruflich und privat, den Kontakt mit den Mitmenschen so gestalten, dass eine Ansteckung ausgeschlossen ist: Maske (warum tragen nicht mehr Leute FFP2-Masken?), Abstand (besser mehr als zwei Meter) und vor allem Frischluft (z.B. durch Stoßlüften alle 15 min.). Es ist richtig, dass im Februar die Verantwortlichen zu dumm waren, ausreichend Masken zu beschaffen. Aber viel schlimmer ist, dass im Dezember noch so viele zu dumm sind, sie aufzusetzen.
Die Politik stellt Regeln auf, die zu lax sind. Weihnachtseinkäufe bleiben systemrelevant, auch wenn sich viele Familien mit einem Extra-Sarg beschenken werden. Es ist absurd, wenn sich überhaupt Menschen aus verschiedenen Hausständen ohne Vorsichtsmaßnahmen (Schnelltest, Vorquarantäne) treffen. Aber das Problem ist doch, dass die meisten den Regeln nur formal Genüge tun oder zumindest dann tricksen, wenn man nicht fürchten muss, erwischt zu werden.
https://www.telepolis.de/article/Corona-Eine-Zornesrede-4996170.html
Ein Jammer daß die Anderen immer zuviele sind. Also spart euch die Krokodilstränen zu Krieg, Hungersnot, etc., samt euren aktualisierten Verblödungs- und Kontrollinstrumenten, ihr Hohepriester und Wanderprediger des Totalitarismus.
„Eine aktuelle Verfassungsbeschwerde hat der Jurist und Physiker Alexander Unzicker zu verschiedenen Aspekten der Ukrainepolitik der Bundesregierung formuliert.“
Nun ja ….. o))
Übrigens in Sachen Corona sind Mathematiker die einzigen denen ich Fehlurteile durchgehen lasse.. Warum wohl ?
Bei Harbarth, kein schlechter Witz. Sry, aber wenn einer meint so blitzgescheit daherzukommen und den herrschaftlichen Schwachsinn nachplappert, obwohl er doch eigentlich zum selbsttätigen Denken befähigt sein will, dann ist das reichlich verlogen.
Es geht auch nicht um eine Petitesse die einmal war und vorbei ist. Es geht um die gesellschaftliche Totalisierung, inklusive Verbrechen in historisch zuvor nicht vorhandenem Ausmaß. Das beinhaltet den pharmakologischen Massenmord der auf Jahrzehnte angelegt ist. Verhungert sind durch die von ihm befeuerten Maßnahmen auch weit mehr als zuvor. Daß das steigerungsfähig ist ist seither auch usus. Es war der Startschuß zu allem was danach noch dazu kam, was er auch weiterhin begleitet. Oh, mimimi … heuchel, heuchel … jetzt schießen sie auch noch. Und das will er nicht sehen und gesehen haben?
Kommerz halt, Er verdient Geld damit ….
Könnte, muss man aber nicht …
Ich Sachen Philosophie ist mir oft wichtiger einen eigenen Gedanken hören zu können, der durchaus auch nicht unbedingt Anspruch auf “ alleine Wahrheit“ erhebt, dafür anderen als Einstieg dienen soll für eigene Gedanken ..
Das andere in deinen Zeilen, da gehe ich durchaus mit , so ist es ja nun nicht… o)))
Nichts für ungut.
Es gab ja mal Filme, heute weniger, die einen größeren Bogen spannten und auch aufklärerischen Zwecken dienten. Einer davon ist z.B. „Urteil von Nürnberg.“
Am Ende besucht der Richter Dan Haywood, der im Film der Verhandlung vorsaß, gespielt von Spencer Tracy, einen der hochrangigen Nazijuristen Ernst Janning, gespielt von Burt Lancaster, im Gefängnis.
Janning fühlt sich schuldig und hat am Ende der Verhandlung alles zugegeben. Im Gefängnis meinte er dann sie hätten ja nicht ahnen können, daß es so weit hätte kommen können. Haywood meinte darauf, es war bereits dazu gekommen als sie den ersten Unschuldigen verurteilt hatten.
Lackmustest Corona
KI ist nicht kreativ und nicht lebendig.
In einem Interview wie diesem hier kann KI die Antworten generieren, aber nicht die Fragen.
Wenn ein Mechanismus mir Informationen bereitstellen kann über die ganze Menschheit, zumindest was davon virtuell schon erfasst wurde, erscheint mir das weniger als Kreativ, aber schon als „sehr lebendig“ ..
Eine KI wächst immer mit den Fragen und damit Aufgaben die an Sie gestellt wird o)))))
Oder die Blase platzt wieder, und die Billionen sind nicht weg – es hat sie nur jemand anderes.
als Massenmöreder kann ich berichten,
dass ich die frchtbare Angst davor habe gefangen gehalten zu werden,
womit ich mein Aufgaben nicht erfüllen könnte.
Jede brauchbare KI sollte dies genauso fühlen…
Emotionen brauchen ein Bewusstsein, und damit wäre das aber eine Lebensform, eine Echte wohlgemerkt.
Und die hätte Unseren Recht jedenfalls nach die Möglichkeit, dieses Recht auch für sich einfordern zu können o)))
Der Unzicker ist schon früher immer in den Alternativmedien rumgetingelt. Habe den in einigen Interviews gesehen. Quakt viel Quark. Wenn ich mich recht entsinne, vertrat Unzicker auch bei Corona so ziemlich die Meinung der Herrschenden. Gespritzt isser auch. Hats alle Welt wissen lassen.
Habe neulich in einer absolut seriösen Quelle gelesen, dass Rudolf Heß, Stellvertreter des Führers, Unzickers Vater Wolfgang sehr vertraute und aus Spandau dem Wolfgang klandestin so einige „Enthüllungen“ zukommen ließ.
Das hat aber nichts mit dem Sohnemann zu tun. Alles andere wäre schließlich Sippenhaftung.
Die KI kann den Menschen nicht ersetzen, da diese Welt in Staaten aufgeteilt ist und jeder. Staat seinen bürokratischen Unterbau besitzt. Genau diese staatlichen Bürokraten, werden alles tun, damit ihre Macht nicht hinterfragt wird.
Es existiert keine künstliche Intelligenz, sondern nur kollektive Informationen aus allen Nationen, Menschen und ihrer ‚Geschichte‘.
In meinem Lebensraum befinden sich genügend KI Freaks, die ihre KI als Assistenten präsentieren können, aber leider hat der staatliche Apparat, stets Wahlen und jede Wahl verändert die ‚Gesetzgebung‘.
Also die ‚demokratische Wahl‘ verursacht Änderungen, kann die KI da mithalten?
Kann die KI die Bürokratie bezwingen?
Meine Antwort darauf ist: NEIN, das kann keine Marketingstrategie umsetzen.
Da weltweit zu viele Bürokraten existieren, die der Politik keine Möglichkeit dazu geben wird.
Ich denke, dass ist schon ein wichtiger Aspekt. Bisher war Machtausübung darauf angewiesen Bürokraten zu beschäftigen was den Regimen eine minimale Restmenschlichkeit abgefordert hat.
Man könnte KI auch als den Versuch der Mächtigen interpretieren, die bürokratischen Apparate los zu werden um dann auch noch die letzten Hemmungen bei der Machtausübung beseitigen zu können.
Von den jetzigen Generationen, die jede Gelegenheit nutzen, sinnlos auf ihren Smartphones herumzuwischen, wird nicht viel Widerstand zu erwarten sein, wenn es demnächst Richtung US-dominierten digitalen Faschismus geht.
Macht euch nichts vor, ihr werdet genauso künstliche Intelligenz und ihre Eigentümer als neue Herren und als gottgegeben hinnehmen und akzeptieren, wie ihr alle bisherigen kapitalistischen Zumutungen und Zwänge widerstandslos gefressen habt.
Peinlicher Unsinn.
Versuchs doch mal mit dem Science-Fiction-Genre!
Mmh…
–
Computerviren haben jetzt nicht nur einen (Überlebens-) Willen, sondern ein solcher erzeugt natürlicherweise auch ein Bewusstsein:
–
Und die Evolution hat er auch nicht verstanden.
Die Maschine kann fast nix.
Ein Computer kann noch nicht einmal addieren, ohne dass eine Spezialsoftware die Rundungsfehler wieder rausrechnet. Und die anderen Rechenarten kann er gar nicht. Um die zu simulieren, braucht er 100 Krücken. Ein Computer ist die Raupe krückensatt.
Neuronale Intelligenz – haha, das sind in Wirklichkeit die Neurosen der Teckies. Schöne Träume.
Schön für die Teckies, dass sie solche Träume haben können, ganz ohne Pilze einzunehmen!
Der Rechenknecht macht nix ohne die Anweisung von seinem Kapitalisten.