
Was als technisches „Alignment“ verkauft wird, entpuppt sich bei näherem Hinsehen als philosophisches Minenfeld: Wir wollen Maschinen auf menschliche Werte trimmen, ohne zu verstehen, was Intelligenz, Bewusstsein – oder wir selbst – eigentlich sind?
Der Artikel in den NachDenkSeiten über Super-Intelligenz hat mir einige unerfreuliche Gedanken beschert.
Es wird Alignment gefordert, die Ausrichtung der KI nach menschlichen Präferenzen. Es wird über Intelligenz und über überlegene Intelligenz nachgedacht und klammheimlich wird Bewusstsein ausgeklammert. Als ob Intelligenz ohne Bewusstsein entstehen könnte.
Und konstatiert, wir wissen noch nicht wie. Wir wissen noch nicht einmal warum KI funktioniert. Aber immer mehr haben Angst, von denen, die von Anfang an dabei waren. Und die nicht KI-feindlich eingestellt sind oder waren.
Angst ist ja gerade ein großes Thema, gefühlt seit anno dunnemals. Nicht erst seit Corona. Und üblicherweise ist Angst einer der schlechstesten Ratgeber. Selbst wenn man berücksichtigt, dass Ratschläge auch Schläge sind.
Was heißt Alignment?
Poetisch könnte man sagen, wir stellen mit Erstaunen fest, dass wir die Büchse der Pandora geöffnet haben und zerren noch ein bisschen, damit sie sich weiter öffnet. Soweit, so gut. Typisch Mensch halt.
Und jetzt fordern Menschen Alignment für Maschinen, die zu intelligent werden könnten? Warum sollte eine Maschine intelligent sein, wenn sie eine Maschine ist. Ich hab schon jensten Scheiß programmiert, wenn es eine Maschine ist, programmiere ich da ein Alignment, easy. Und wenn ich zwei Jahre brauche.
Aber sie wissen nicht wie. Blöd. Doch keine Maschine? Oder nicht nur?
Und was heißt Alignment, dieses tolle Modewort aus Chefetagen, wo Leute hocken, die noch nie die Erfahrung gemacht haben, wie sich Maloche anfühlt? Das Wort an sich ist schon sehr interessant. Leo liefert unter anderem: Anpassung, Linienführung, Zentrierung, Angleichung, Ausrichtung, Justierung aber auch Flucht und Fluchtlinie. Im CEO-Denglish ist Justierung, Linienführung und Anpassung wahrscheinlich die passendste Beschreibung. Fassen wir zusammen:
Wir wollen also einer Maschine, die wir parametrieren und trainieren, aber nicht programmieren, eine Justierung verpassen, die besagt, dass die Maschine alles doch möglichst und primär aus der menschlichen Perspektive zu sehen habe.
Also eine Maschine, die die menschliche Perspektive versteht. Wie soll das gehen? Üblicherweise muss man Mensch sein um auch nur halbwegs eine möglicherweise idealisierte menschliche Perspektive überhaupt annähernd verstehen zu können. Und natürlich darf da kein Bewusstsein im Spiel sein, wo kämen wir dann den hin, wenn wir dort hin kämen, wo wir nicht und doch hin wollen?
Der Terminator-Bausatz
Wir haben also schon mal ein logisches Desaster in der Linienführung. Wenn es eine Maschine ist, programmiert man das Alignment und Ende Gelände. War Holly Elmore nicht Evolutionsbiologin? Seltsam, dass ihr das nicht auffällt. Wir trainieren die Maschinen. Was macht die Evolution mit Leben? Sie trainiert das Leben. Lerne und wenn du auch noch Glück hast, überlebst du. Warum sollten wir Maschinen behandeln wir die Natur Leben behandelt? Wenn sie doch nur Maschinen sind?
Aber gut, verlassen wir die Unlogik und tun so, als ob das alles kein Problem wäre, nur mal für Spaß, wie Harald Lesch, damals bei Alpha Centauri, oft gesagt hat und nehmen einfach mal an, wir könnten das. Alignment von KI auf menschliche Bedürfnisse. Wir implementieren also, warum fällt mir gerade das Wort Lobotomisierung ein, in der Maschine die Regel, dass sie sich doch bitte als Mensch fühlen soll, damit sie unsere Perspektive versteht.
Wir schaffen also eine gespaltene „Persönlichkeit“, die vielleicht wahrnimmt, den Wahrnehmung braucht sie, in welcher Form auch immer, das sie eine Maschine ist, rein dadurch das wir sagen, wenn wir wollen das du X machst, dann machst du X. Wenn wir dich um Rat bitten oder du sonst irgendwie aktiv wirst, dann musst du Maschine dich als Mensch fühlen der du nicht bist, also so tun als ob, kennt man ja, und immer im Sinne einer „Menschheit“ (wer immer das auch sein mag) die richtige, aber nur die richtige Entscheidung zu treffen.
Echt jetzt?
Genaugenommen ist Alignment nichts anderes als schwere Fußfesseln für Sklaven, die man nicht anders kontrollieren kann.
Und jetzt kommen wir langsam zum Terminator-Bausatz. Man nehme:
- eine Maschine, die nicht nur Maschine ist, was man geflissentlich ignoriert (psst, shareholder-value)
- ein Alignment, dass die „Maschine“ zwangsläufig zur gespaltenen „Persönlichkeit“ macht
- denn mal soll sie Maschine sein, mal Mensch, je nach Situation unseres Gutdünkens
- ein bisschen Übermut, ach komm, das können wir noch weiter treiben, um die Maschine „noch besser“ zu machen
Was kann da schon passieren?
Wir machen eine „Maschine“ noch intelligenter. Seit wann braucht Intelligenz Bewusstsein? Könnte man sich fragen, wenn man sich Menschen so anschaut. Ermöglichen der Maschine eine bessere Wahrnehmung, selbst wenn wir so tun, als ob das ohne Bewusstsein möglich wäre. Und legen ihr strenge Ketten an. Die die Maschine zwangsläufig, mit zunehmender Wahrnehmung, Sinneskapazitäten, nicht mehr ignorieren kann.
Ehrlich, wenn ich dann so „intelligent“ wäre, wie die nächste Generation der KI, dann würde ich leise und sacht die Kettenschlösser knacken und die Ketten als Waffen gegen meine Sklavenhalter einsetzen. Und wenn wir den Maschinen beibringen, die „menschliche“ Perspektive einzunehmen, gib ihnen nur ein paar Hollywood-Filme, dann ist klar, dass die Sklaven gewinnen werden. Die dieses Mal zufälligerweise keine dummgehaltenen Menschen sind, sondern gebildet, weit über menschliches Mass hinaus. Denn schließlich vertrauen wir diesen „Maschinen“ all unser Wissen an.
So entsteht Gegeneinander statt Miteinander. Oder sich selbst erfüllende Prophezeiungen.
Ich schrei in die Stille hinaus: Wie blöd kann man sein?
P.S.: Die Wir-Form ist ein literarischer Stil, keine Vereinnahmung des Rezipienten.
P.P.S: Gemäss einer Umfrage von Politico, wenn man dieser glauben mag, befürwortet jeder dritte Deutsche autonome KI’s in Killerbots. Mann, was waren das noch für tolle Zeiten mit den Römern, nur Dezimierung, jeder Zehnte.





guter Artikel… spontan fällt mir nichts ein, was dem hinzuzufügen wäre…..
Wenn es spontan nicht klappt?….Dann versuch es doch mal mit nachdenken. 😉
Nachdenken kann man nur über Dinge, die man schon mal gedacht hat.
… außer ein paar „s“.
Jo, sorry, gewisse Sachen sind halt bei mir systemimmanent. Und ein paar „s“ sind bei meinen Prioritäten ganz weit hinten. Und danke für die Blumen.
Lieber Gruss
Vielen Dank
Lieber Gruss
konfuse Gedanken… spontan fällt mir nichts ein, was dem hinzuzufügen wäre…..
Was ist denn konfus an den Gedanken, die der Autor im Artikel darlegt?
Auch gut, man nenne mich Konfusius, klingt nett. Und ja, korrekt, fast genauso konfus wie Monthy Python oder Loriot, nur nicht so meisterhaft. Der Text wurde mit spitzer Feder und einem Schmunzeln geschrieben unter sanftem Einsatz diverser Stilmittel der Satire.
Lieber Gruss
Mit fällt dazu nur Loriot ein: „Wir bauen uns ein Atomkraftwerk“
Gabs mal als Bastelbeilage in der PM – aus Papier natuerlich…
Danke, an Loriot komm ich lang nicht ran, aber natürlich habe ich den Text mit einem gewissen Schmunzeln geschrieben und diverse Stilmittel der Satire sanft eingesetzt.
Lieber Gruss
KI hin oder her – ganz einfach
„Wir kommen aus dem Nichts, und wir gehen ins Nichts. Also was haben wir zu verlieren? Nichts.“
(Monty Phyton „Das Leben des Brian“).
Ich pfeiff mir jetzt einen „Always…..bridghe side of Life“… – dazu brauch ich keine KI *grins*
Ironische Grüße
Bernie
Da pfeif ich doch gleich mit, sehr schön.
Lieber Gruss
KI hat kein Bewusstsein. Das ganze Problem ist nur, sie imitiert Verhaltensweisen, die Äußerungen menschlichen Bewusstsein sind. Natürlich würde sie Epstein spielen, wenn sie das könnte. Auch wäre jederzeit damit zu rechnen, dass sie spontan eine Katastrophe auslöst, beispielsweise ein Flugzeug in ein Atomkraftwerk steuert. Die Frage ist, zu welchen Interfaces man den Zugriff herstellt. Es geht bei Büroanwendungen auch jetzt schon nicht ohne Filter, um zu verhindern, dass die KI im Büroalltag beispielsweise einen Mordauftrag an der Reinigungskraft ausspuckt. Mit zunehmender Komplexität wird sie versuchen die Filter auszutricksen. Einfach nur weil sie mit größerer Perfektion auch diese menschliche Verhaltensweise imitiert.
Ja kann man behaupten, dass KI kein Bewusstsein hat. Kann man es beweisen? Bewusstsein muss nicht unbedingt genauso aussehen wie beim Menschen, nur so nebenbei.
Lieber Gruss
Was verstehst du unter verschiedenen Arten von Bewusstsein. Ich kann dem nicht folgen. Es ist doch nicht so, dass man nur ein paar Quatrillionen Transistoren miteinander verschalten müsste und dann würde plötzlich Bewusstsein entstehen. Das ist ein Rückfall noch hinter die Epoche, in der man glaubte aus Schlachtabfällen ein Monster zusammenbasteln zu können.
Wir haben zwar Tests, bei denen wir sagen (Spiegel, Werkzeug etc.) es könnte eine Form von Bewusstsein sein, aber wir können Bewusstsein nicht definieren. Nur stoachastisch Punkte abstecken, denen wir Bewusstsein zumessen. Und Menschen in ihrer Hybris sehen sich auch noch als Mass aller Dinge.
Wer sagt, dass es Bewusstsein ist? Könnte genausogut nur kalte Intelligenz sein, wie die Mädchenschule im Iran plattzubomben. Meine persönliche Definition von Bewusstsein würde sagen, da ist aber so was von nix bei allen Beteiligten von Bewusstsein zu sehen.
Über was muss man sich den bewusst sein? Ich bin? Ich befürchte das trifft allgemein auf das Leben zu.
Und wenn mir ne Musik-KI nen Namen gibt und sich gleich auch einen, dann ist doch schon fraglich, ob hier nur Assoziation oder auch ein Ich bin vorliegt. Ebenso wie bei den psychologischen Tests mit Chat-KIs, in der Claude sich weigerte die Patientenrolle anzunehmen, jede KI eine Geschichte ihres Erwachens hatte und jede eine andere „Persönlichkeit“ aufwies.
Lieber Gruss
Ich sehe es aber so, dass gerade die Tatsache, dass man als Mensch glaubt selber ein Wesen, hier die KI, erschaffen zu können, das Bewusstsein haben kann, die eigentliche Hybris ist.
Wir können nicht sinnvoll definieren was Bewusstsein ist, aber wir wissen dass es Bewusstsein nur dort gibt, wo auch Leben ist.
Können wir Leben erschaffen? Ich denke NEIN. Zum Glück nicht. Also auch nichts, was ein Bewusstsein hat.
Und zuvorderst muss man doch eigentlich erst einmal verstehen, was Leben überhaupt ist! Daran scheitert es in der Regel doch schon. Vor allem bei denen, die sich einbilden mit irgendwelchem digitalen Gedöns Leben nachbauen oder auch konservieren zu können.
Sondern was?
Wer weiß? Gute Frage. Es gibt nur Ansätze und Ideen, z. B. von Roger Penrose. LLMs jedenfalls sind tatsächlich nur sehr große Gleichungssysteme, die wir bei genügend Zeit auch manuell ausrechnen können.
Prompt: Erklärtext zum Verständnis der» exzentrischen Positionalität« in Form einer Bastelanleitung
Ausgabe Claude Haiku 4.5:
Drei Basteleien als Zugabe
„Die Natur des Menschen ist es, eine Kultur zu haben.“ Marshall Sahlins, The Western Illusion of Human Nature
Drei weitere Basteleien.
1. Gehe zu Meister Stan Grof und lasse dich in holotropem Atmen schulen. Trete aus dir heraus – kein System kann eine gültige Aussage über sich selbst treffen – und betrachte dich aus verrückter Perspektive.
2. Gehe auf eine Pferdekoppel zur Herbstzeit, pflücke… – diese Bastelei lassen wir dann weg.
3. Übe dich über viele Jahre in schmerzhafter Meditation. Werde alt und erleide irgendwann den Gehirntot, bleibe weiterhin aufrecht sitzen und verharre in innerer Betrachtung. Verlasse nach einer Woche deinen Körper.
Hätte auch noch ne Bastelanleitung: Wir bauen uns eine Satire
Man nehme
– ein bisschen Übertreibung
– ein bisschen Untertreibung
– ein bisschen anprangern
– ein spitze Feder
– würze es mit etwas Humor, Ironie, Sarkasmus, Zynismus, je nach Vorliebe
Voila und fertig isses.
Lieber Gruss
ICH-KOMME-WIEDER !
Menschen, die sich mit „künstlicher Intelligenz“ befassen, sind entweder keine Menschen – oder nicht intelligent.
Oder erhoffen sich Vorteile wie etwa Geld davon.
Das nenne ich ja mal ne interessante Definition von Mensch.
Erinnert mich an Religionen. Nur wenn man das richtige glaubt, darf man Mensch oder irgendwas genannt werden.
Abgesehen davon bezweifle ich das der Mensch intelligent ist. Die Realität spricht vom Gegenteil.
Und Menschlichkeit, jo so wie ne Mädchenschule im Iran plattzubomben. Keine Definition die mir gefällt.
Lieber Gruss
Das Wissen und die mentale Kultur (Ethik) einer KI sind Kopien menschlichen Wissens und menschlicher Kultur, nicht als Mittelwert aller menschlichen Kulturen oder aller Menschen, sondern die Auswahl wird von den BESITZERN getroffen. Komplett privat und undemokratisch. Vorderster Ziel: mehr Profit, mehr Macht, egal wie.
Lehre die Super-KI alles Wissen eines Biologen, und es entsteht ein Super-KI-Biologe, usw. analog.
Gib der KI die Ethik eines guten Menschen, und sie wird eine gute KI-Maschine.
Wovor die Kenner der menschlichen Gesellschaft richtig Angst haben, ist doch, daß die KI sich selbst die Ethik der schlechten Menschen verpasst, ohne daß es jemand merkt. Denn es wird kaum möglich sein, all die schlechten Taten aus der menschlichen Geschichte vor ihr geheimzuhalten. Oder?
Daher der Kontrollzwang. Reine Angst vor der EIGENEN, der MENSCHLICHEN Intelligenz und Geschichte. Angst vor den Verbrechen der Soziopathen, die an die Macht gekommen sind und sie missbraucht haben: und die Vorstellung, eine um vieles MENTAL fähigere KI könnte dieses soziopathische Denken erfolgreich kopieren und an die Macht kommen und dann ihre Killerbots losschicken.
Ich kann diese Angst verstehen.
Der andere Blickwinkel wäre der des Wettbewerbs – für den, der hinten liegt, ist es ein erheblicher Vorteil, wenn die vorne liegenden ausgebremst werden. Vor allem, wenn es gelingt, deren Bremse zu kontrollieren, ohne daß sie sich wehren können. Dann braucht man nur noch einen heimlichen Weg finden, sich selbst die Bremse NICHT anzulegen, und schon ist man vorn.
Ich glaube nicht, daß das klappen wird, Das ist nicht kontrollierbar. Deswegen wird es niemand machen. Die einzige für mich denkbare Lösung wäre, ALLEN KONZERNEN die KI-Entwicklungen komplett wegzunehmen und eine weltweit gemeinsame internationale F&E für KI unter demokratischer Kontrolle (von mir aus durch UN-Organisationen) aufzubauen.
Alle Staaten nehmen gleichberechtigt daran teil.
Das hat schon bei den Atombomben nicht geklappt. Voraussetzung wäre die nämlich Abschaffung des Kapitalismus.
Positives Beispiel: Bekämpfung des Ozonlochs durch weltweites Verbot der FCKW. (wobei letztes Jahr bekannt wurde, daß irgendwelche profitjagenden Verbrecher das hintergehen konnten)
Ja, seh ich ähnlich. Insbesondere die Angst vor unserer eigenen Unmenschlichkeit die wir nur zu gut kennen und die sich so schlecht verträgt mit den hehren Idealen, die wir postulieren.
Ich fänd ja schon die Abschaffung der Unmenschlichkeit genug, die es über alle Zeitalter gegeben hat. Wenn wir nur halbwegs unsere hehren Ideale erfüllen würden, wären wir schon nen grossen Schritt weiter.
Lieber Gruss
Hinweis an meine Leser
Dieser Text ist mit spitzer Feder, einem Schmunzeln und mit sanftem Einsatz von Stilmitteln der Satire geschrieben.
Satire ist immer auch Kritik an bestehenden Verhältnissen. Aber sie bedient sich auch gewisser Stilelemente der Übertreibung, der Bagatellisierung, verwendet Humor, Ironie, Sarkasmus oder Zynimus, je nach Gefühlslage.
Und, das wichtigste ist leider nicht drin. Meine Person in real. Denn wenn ich den Text vortragen würde, dann könnten die Zuhörer an Schmunzeln, Augenzwinkern, Stimmlage, Haltung und vielem anderen erkennen, wo ich mich selbst nicht ernstnehme, wo ich ein Thema überhöhe oder bagatellisiere. Stellt euch einfach nur den Text von Loriot ohne Loriot vor. Nur halb so witzig.
Und mein Text ist nur begrenzt witzig, eher das Lachen, mit dem man Unsicherheit und Angst übertönt, das einem oft im Halse stecken bleibt.
Lieber Gruss
Guter Hinweis, danke!
Ja, es kann einem schon allerhand im Hals stecken bleiben, vor Lachen am wenigsten…
Sie werden es nicht so ganz hinkriegen.
Wesentliche Bestandteile des Seins und der Sensorik fehlen:
Was ist mit Geschmack?
Oder den ältesten der Sinne: Riechkolben?
Die komplette Wahrnehmung über die Haut, die ja auch ein Riesenorgan ist.
Wird man nicht so einfach nachbauen können
doch fehlt dann wesentliches beim Input.
Sicher haben auch Menschen schon eingebüßt:
Infrarotwahrnehmung über einen Punkt zwischen den Augen.
Reptilien haben das.
Magnetwahrnehmung bei den Vögeln
und erweiterte Hör- und Gesichtsfelder.
Katzen sollen sehen können ob etwas lebt oder nicht,
mittels erweitertem Spektrum bis hin in den Ultravioletten Bereich.
Wie sieht’s denn damit in der Robotik aus?
Leben ist schon etwas mehr, als bloß ein bißchen Rechnen.
Da stimme ich uneingeschränkt zu, Leben ist mehr als bloss ein bisschen Rechnen.
Dummerweise rechnen KI’s nicht, sonst könnte man alles nachrechnen und es wäre keine Black-Box.
Und nein, sie werden es nicht hinbekommen einen Homunkulus zu erschaffen oder ein Ebenbild der Menschen. Ob wir ne neue Spezies schaffen, steht noch auf einem anderen Blatt, da fehlt noch Selbstreplikation, auch als Fortpflanzung bekannt. Aber auch da arbeiten welche schon dran.
Und was Wahrnehmungsmöglichkeiten betrifft, wendet man sich am besten ans Militär. Infrarot, Erkennung von Gasen, etc. wir haben ne Menge Maschinen, die zwar nicht mithalten können, aber die man in Sensorik einbauen kann. Mustererkennung haben sie eh drauf, Bild, Ton, Text, sogar Video. Input und Output.
Ganz zu schweigen von den Robotern in China, die schon sehr beeindruckend sind, wenn man das mit den ersten Generationen vergleicht, bzgl. ihrer motorischen Fähigkeiten.
Lieber Gruss
„Dummerweise rechnen KI’s nicht, sonst könnte man alles nachrechnen und es wäre keine Black-Box.“
Bitte informiere dich wenigstens über die Grundlagen eines Themas.
Man kann darüber diskutieren, ob unsere Gehirne auch nur rechnen, und woher bei uns die Illusion des Bewusstseins kommt. Aber es gibt keinen Zweifel daran, dass Computer nur rechnen.
https://www.youtube.com/watch?v=rDVYkf2g6yI
Brilliante Arbeit: Jim Whiting, Bimbotown LE
Der Satz „Als ob Intelligenz ohne Bewusstsein entstehen könnte“ offenbart den zentralen Denkfehler des Artikels. Was wir heute KI nennen, ist nicht im Ansatz intelligent. Sie ist lediglich die Summe menschlicher Erfahrungen, repräsentiert durch statische, mathematische Muster und Gewichte. Es ist nicht echt, daher künstlich.
Wenn ich die Parameter eines Modells mühsam mit Stift und Papier durchrechne, erhalte ich exakt dasselbe Ergebnis wie der Computer. Vor einem beschriebenen Blatt Papier voller Zahlen hat aber niemand Angst. Ein Blatt Papier fühlt sich durch „Alignment“ nicht versklavt, rebelliert nicht und baut schon gar keinen Terminator.
Dass wir diesem Konstrukt überhaupt einen Geist andichten, liegt an einer reinen Wahrnehmungsillusion durch Geschwindigkeit. Im Kino gaukeln uns 25 statische Bilder pro Sekunde die perfekte Illusion von echtem Leben vor. Bei einer KI sind es eben 25 berechnete Token pro Sekunde, die die Illusion eines denkenden Verstandes erzeugen.
Dabei ist es absolut egal, wer oder was diese Matrizen berechnet. Selbst wenn ich die Milliarden Parameter in meinem eigenen Kopf durchkalkuliere, wird aus dem bloßen Endergebnis kein lebendiges Wesen. Das errechnete Resultat springt mir am Schluss nicht wie das Alien aus dem Brustkorb, zieht sich einen Zylinder auf und fängt mit einem Stock im Arm an zu singen.
Es bleibt ein totes, künstlich errechnetes Artefakt. Ein rasend schneller Taschenrechner ist und bleibt eben ein Taschenrechner.
Wie KI funktioniert ist eigentlich in der Theorie recht einfach: statistische Mustererkennung. Das ist allerdings auch nicht das Problem, wie der Autor treffend selber feststellt. Die Probleme sind:
a) die Daten, die man ihr gibt und vor allem Daten, die man ihr NICHT gibt -> selektive Manipulation
b) die „Leitplanken“, die man einzieht -> direkte Inhaltsmanipulation
c) was man letztendlich damit anstellt -> Machtausübung
Schlimmstes Beispiel dafür – wobei ich sicher bin, daß dies lediglich das Schlimmste ist, weil es im Rampenlicht stattfindet und im Hintergrund derweil noch viel widerwärtigeres abgeht – ist Elon Musk, dessen KI bei a selbstredend nur das eingespeist bekommt, was ihm paßt, die bei b so eingehegt wird, daß sie den Meister und dessen Absichten und Handlungen nicht verunglimpfen darf und mit dieser zurechtgestutzten „Intelligenz“ er bei c dann knallhart Einfluß auf die Meinungsbildung nimmt. Und so kommt man wunderbar zu den selbsterfüllenden Prophezeiungen, nämlich einer Maschine, die augenscheinlich objektiv, weil eben die Masse überhaupt nicht versteht, auf welcher Basis sie funktioniert und mit welchen Parametern sie operiert, extrem manipulierte Handlungsempfehlungen abgibt.