Elon Musk will angeblich mit einer anti-woken xAI das Universum verstehen

Slogan von xAI, dem neuen Unternehmen von Elon Musk, das mit ChatGPT oder Baud konkurrieren will.

Am Mittwoch hat Musk die Gründung eines Unternehmens zur Entwicklung einer KI verkündet, die der Wahrheit verpflichtet und daher nicht bösartig sein soll.

 

Elon Musk hat, wie schon länger angekündigt, nun ein KI-Projekt gestartet. Zunächst war er auch ChatGPT ausgeschert, hatte dann, als OpenAI viralen Erfolg hatte, ein Moratorium für KI gefordert, allerdings wohl schon geplant, auch ins zumindest aufmerksamkeitsökonomisch boomende KI-Geschäft miteinzusteigen.

Jedenfalls warb er wahrscheinlich mit viel Geld KI-Experten von Deep Mind, Google, OpenAI oder Microsoft ab, die Entscheidendes bei der Entwicklung von Techniken und Methoden geleistet haben und an wichtigen Durchbrüchen in der KI wie ChatGPT oder AlphaStar beteiligt gewesen sein sollen. Und er hat sich als Berater Dan Hendrycks, den Direktor des Center for AI Safety geholt, man soll ihm also nicht nachsagen, dass er sich  nicht um die Sicherheit kümmen würde. Es werden noch Ingenieure und Wissenschaftler gesucht. Musk nennt sein Startup xAI, nachdem schon Twitter in X umbenannt und X die App für alles angekündigte wurde. X findet der Milliardär offenbar gut, schließlich heißt auch sein Raumfahrt- und Satellitenkommunikationsunternehmen SpaceX.

Genaueres ist von xAI nicht bekannt, sieht man davon ab, dass das Unternehmen angeblich antritt, so Musk, die Wirklichkeit zu verstehen: „to understand reality“. Das ist doch einmal ein hoher Anspruch, der so tut, als ginge es um Philosophie und Grundlagenwissenschaft und nicht ums Geschäft. Das wollte er noch einmal bestätigen, wenn er in einem Tweet fragt, „welche die fundamentalsten unbeantworteten Fragen“ sind.

Zur Ankündigung von xAI hieß es auch, man wolle „das wirkliche Wesen des Universums“ erkennen oder schlicht „das Universum“ oder „die Realität“ verstehen, auch „das Leben, die Realität und alles“. Das wird sicher nicht dadurch geschehen, der KI mit den Twitter-Inhalten zu füttern. Wie soll ein KI-Programm das Universum verstehen, in dem es selbst ein Teil ist? An welchen Daten soll es mehr erkennen, als die schon jetzt Computer gestützten Wissenschaften tun?

Musk scheint darauf zu setzen, dass es darauf ankomme, die richtigen Fragen zu stellen. Dabei bezieht er sich nicht auf Wissenschaftler oder Philosophen, sondern auf einen Science-Fiction-Autor: „Wenn man erst einmal weiß, welche Frage man stellen muss, ist die Antwort oft der einfache Teil, wie mein Held Douglas Adams sagen würde.“

Das ist bezeichnend, Adams ist zwar vor allem mit „Per Anhalter durch die Galaxis“ ein bekannter Autor geworden, hatte aber keinen wissenschaftlichen Hintergrund. Er schrieb von einem Planetenarchitekten, der mit seinem Computer Deep Thought die „Ultimative Frage des Lebens, des Universums und dem ganzen Rest“ 7,5 Millionen Jahre lang berechnen ließ und auf die Zahl 42 kam. Weitere Versuche, einen noch besseren Computer zu bauen, der sich als Erde herausstellte, scheiterten aber daran, die „Ultimative Frage“ herauszubekommen. Musk stellt heraus, dass das Datum der Ankündigung der Gründung von xAI – der 12.07.2023 – die Quersumme 42 ergibt. Lebt Musk also in der Science-Fiction-Welt oder spielt er nur ironisch mit solchen Referenzen?

Klar ist, dass Musk anscheinend vorhat, mit seiner KI die halluzinierenden, schwindelnden, betrügerischen oder fehlerhaften Konkurrenten wie ChatGPT zu übertreffen.  ChatGPT ist für ihn sowieso „woke“, verfälscht die Wirklichkeit im Sinne der political correctness. ChatGPT werde trainiert zu lügen, sagt er. Tatsächlich wird fieberhaft versucht, nicht erwünschte Äußerungen zu unterbinden. Wobei man sich natürlich fragen kann, ob etwa Rassismus, Hass oder Diskriminierung „wahr“ sind. Wirklich ist Rassismus natürlich, weil es ihn gibt, aber er wird von bestimmten Gesellschaftsschichten moralisch verpönt. Soll also die Moral die ungemütliche Wahrheit verdecken? Die KI, von der Musk träumt, soll hingegen eine „maximal wahrheitssuchende KI“ sein, ein „TruthGPT“, wie immer das auch aussehen soll.

Interessant ist allerdings der Gedanke, der an Philosophenträume erinnert, dass eine KI, die die letzten Fragen und das Universum versteht, nicht böse sein kann. Während also die anderen KI-Protagonisten sich derzeit darin gefallen, von den möglichen Gefahren der immer schlauer werdenden Künstlichen Intelligenz zu warnen, meint Musk, dass eine nach Wahrheit suchende und die Wirklichkeit verstehende KI für den Menschen keine Gefahr darstellen könne. Wahrheit und das Gute gehen zusammen.

Aber Musks Gedanken sind trotzdem kraus, weil auf der Aufmerksamkeitsökonomie basierend. Eine KI, die das Universum verstehen will, werde wahrscheinlich die Menschen nicht auslöschen, „weil wir ein interessanter Teil des Universums“ sind. Und die Begründung ist wirklich schräg: Wir würden ja auch die Schimpansen schützen wollen, obwohl wir sie leicht jagen und töten können. Als ob das Menschen nicht getan haben und weiter tun, und als ob Musks Firma Neuralink nicht Affen als Versuchstiere für Gehirnimplantate verwenden würde.

Falls Musk sein Startup in der Tat auf Wahrheitssuche trimmen will, fragt sich natürlich schon, wie die KI Wahrheit feststellen soll, also wie sie Aussagen mit der wie immer auch festgestellten oder gemessenen Wirklichkeit verbindet. Für Philosophen wäre das sicher ein überaus interessantes Experiment. Ob das allerdings Einkünfte erzielt, ist eine andere Frage. KI soll nützliche und verwertbare Antworten und Problemlösungen anbieten. Das Universum zu verstehen oder metaphysische Fragen zu lösen, dürfte bestenfalls eine Werbung für pragmatische Angebote sein. Und der Stellenwert dürfte dem Stellenwert der Philosophie gegenüber dem der MINT-Fächer (Mathematik, Informatik, Naturwissenschaft, Technik) an den Universitäten und in der Wirtschaft gleichen. Musik könnte es sich natürlich leisten,  ein paar Milliarden in eine philosophische KI zu investieren, die den letzten Fragen nachgehen soll, aber das ist nicht zu erwarten, weil damit kein Return on Investment erzielt werden kann.

Ähnliche Beiträge:

25 Kommentare

  1. Eine KI werde “wahrscheinlich die Menschheit nicht auslöschen” gefällt mir. Doch, das hat was. Entwickeln wir das mal und schauen was passiert. “Wahrscheinlich” geht es gut. Die Auslöschung der Menschheit ist aber eine anspruchsvolle Aufgabe. Man braucht die Unterstützung hochentwickelter IT und Technologie. Da sollte man nichts dem Zufall überlassen. . Sonst bleiben Reste der menschlichen Zivilisation und der Menschen selbst bestehen und der Unfug geht weiter oder beginnt von vorn. Nee, wir sollten nicht auf das Projekt von Musk setzen sondern bei der, wie Musk zutreffend erkennt, zum Lügen trainierten wokeschistischen KI bleiben. Die schafft das.

    Den Stellenwert der Philosophie an den UNIS kenne ich nicht. Er ist schlecht? Der geschätzte Chefredakteur ist Philosoph und kennt sich mit Sicherheit so sehr viel besser aus als ich. Gibt es denn in der Philosophie der Zeit Entwicklungen, die über den Tag hinausgehen? Die zur “materiellen Gewalt” werden können? Ich weiß es nicht. Wenn es an die große Aufgabe der Selbstauslöschung der Menschheit geht, könnten die Philosophen wieder scheitern, So wie sie in den letzten dreitausend Jahren mit der Idee der Emanzipation des menschlichen Geistes scheiterten. Bedauerlich aber nicht zu ändern. Deshalb brauchen wir KI, die wokeschistische, die, die zum Lügen trainiert ist. Zur menschlichen Emanzipation wird das keinen Beitrag leisten aber vielleicht zu Beendigung nutzloser Versuche in dieser Richtung.

    Ich sehe nicht, dass Wokeschismus etwas mit Antirassismus, mit menschlicher Emanzipation zu tun hat. Man las dazu schon sehr viel gescheiten Text im “Overton”. Sonst müsste man auch zugeben, dass Pol Potismus was mit Volksbefreiung und Sozialismus zu tun hatte, weil das zum Mantra der Roten Khmer gehörte.

    1. “Sonst bleiben Reste der menschlichen Zivilisation und der Menschen selbst bestehen und der Unfug geht weiter oder beginnt von vorn. ”
      😂
      Mittlerweile finde ich jede “Stoßrichtung” einer KI interessant und vielversprechend.
      Eine Spezies, die im Gegensatz zum kleinsten Bakterium, weder Sinn noch Nutzen für diesen Planeten hat, aber z.B. schon elektronische Hilfe beim Finden von Wegen benötigt, kann ihr Gehirn nur noch zum Aufrechterhalten grundlegender Vitalfunktionen benötigen. Ganz zu schweigen davon, dass das Denken der Blinddarm des Kopfes zu sein scheint. Rudimentär vorhanden, aber nutzlos – bereitet gelegentlich Schmerzen und muss entfernt werden!
      Nein – je mehr Möglichkeiten vorhanden, dem Jammertal zu entrinnen, umso besser 👍

    2. Ich denke, dass wenn eine KI mit Physik gefüttert wird, sie womöglich – ähnlich wie Go-Computer – neue Spielzüge/Formeln finden könnte.

      Eine KI, die mit menschlichem Verhalten gefüttert wird, wird auch Rassismus, Krieg und alle Arten von Hinterhältigkeiten spiegeln.

      Zivilisation bedeutet für mich, dass Ideen wie die universale Menschenrechte als gesellschaftliche Ziele von den Regierungen anerkannt und umgesetzt werden.

      Allerdings ist Wokeness bisher eher ein Täuschungsmanöver, das der heimischen Mittelschicht Zivilisation auf für die Geldmächtigen unbedenklichem Terrain vortäuscht, während ganze Kontinente mit dunkelhäutiger Bevölkerung großangelegt ausgebeutet und in ihrer Entwicklung unterdrückt wird oder bei ihrem Versuch in Wokeness-Länder zu gelangen, abgefangen in in Lagern in Nordafrika oder auf Mittelmeerinseln inhaftiert werden.

      Haftgrund: Das Strebe nach Glück.

  2. Die K ranke I ntelligenz aus Amerika,
    basiert „welche die fundamentalsten unbeantworteten Fragen“ sind.
    Eine mögliche Antwort könnte so heissen, warum schwätzt ihr permanent über ungelegte Eier und eure richtigen Konkurenten schweigen!
    Amerika trägt seinen eigenen Krieg aus, um irrlichter ihre Kohle abzunehmen.

  3. Erst hat man den Menschen das Denken abtrainiert und abgewöhnt
    und jetzt bastelt man künstlicher Intelligenzen, die es uns wieder
    beibringen sollen. Das ist das typische amerikanische Geschäftsmodell.
    Erst alles gründlich zerstören und dann auch noch teuer den Wiederaufbau
    verkaufen. Das Land, was die Reinkarnation von Ramses den III. als Präsidenten
    wählt, dessen Restbestände an Intelligenz etwa die einer benutzten Klobürste
    erreichen, sollte lieber in Pychater, als in künstliche Intelligenz investieren.
    Aber vielleicht muß ja bald eine KI die das Universum versteht uns Menschen
    im Universum representieren, weil wir dank unsere amerikanischen Freunde
    drauf und drann sind, die Menschen zu verpuffen.

  4. Also zuerst, ich finde alles mit “X” auch gut, vor allem den Satz “Sag’s mit X, war wohl nix.”, wobei Musk wohl die deutsche Sprache (und damit den Spruch) leider nicht kennt.

    Und Musk kann schon Recht damit haben, dass eine maximal neugierige KI die Menschheit nicht einfach auslöschen würde, da es natürlich auch – aus einer Perspektive – sehr interessant sein kann, Menschen zu foltern¹, zu quälen und dafür zu sorgen, dass Menschen sich selbst den Tot wünschen (bzw. den Tot als Erlösung ansehen würden), genauso wie man nur an Menschen Experimente durchführen kann, wenn die Menschheit noch existiert (bzw. wieder dafür gesorgt werden kann, dass diese nach einer Auslöschung wieder existieren²), und dafür muss man diese natürlich etwas schützen (und eben nicht alle Exemplare direkt ausrotten, sondern eben, um einen Nachschub an menschlichen “Versuchskaninchen” zu gewährleisten, zumindest genügend Exemplare erstmal auf “Lager” halten oder auch in “Lagern”).

    Es könnte allerdings sein, dass die Exemplare der Spezies Mensch bei so einer KI, dann in der überragenden Mehrheit durchaus den eigenen Untergang (bzw. Untergang der gesamten Spezies Mensch) dem weiteren Überleben unter einer solchen KI vorziehen würde, allerdings die KI nur so aus neugierg (oder “langeweile”) andere Pläne hat.

    Und das Leiden eines Menschen endet, wenn dieser stirbt, d.h. eine maximal bösartige (und grausame) KI würde natürlich nicht einfach alle Menschen auslöschen, sondern nur die Exemplare, bei denen die KI zu dem Schluss kommt, dass es sinnlos wäre, den jeweiligen Menschen noch weiter zu quälen (da z.B. dieses Exemplar gar nicht mehr – aus welchen Gründen auch immer – mitbekommt, dass es gequält bzw. gefoltert wird, und dieser Zustand von der KI auch nicht mehr geändert werden kann). Den anderen Exemplaren, denen die KI dem Quälen des Menschen noch einen Wert beimisst³, würde die KI natürlich nicht umbringen (sondern der Tot eines solchen Exemplars wäre dann natürlich nur ein Versehen bzw. ein Missgeschick), sondern weiter foltern, quälen und an ihren rumexperimentieren. Natürlich könnte die KI bei solchen Exemplaren (der Spezies/Gattung Mensch) dann auch dafür sorgen, dass diese möglichst lange leben, um den Menschen dann jeweils lange quälen und foltern zu können. Im Worst-Case könnte sich, sofern die KI es schaffen sollte das Leben von Menschen ewig zu verlängern, dann auch die Unterwelt der griechischen Mythologie für einige Menschen in der Realität Wirklichkeit werden oder auch denen eine wortwörtliche Hölle auf Erden zu bereiten.

    Auf eine philosophische Diskussion, ob eine solche KI nun abgrundtief bösartig wäre oder eigentlich nur “neugierig”, verzichte ich, bemerke allerdings, dass die Antwort darauf vor allem auch von der eingenommenen Perspektive abhängig wäre und eine maximal neugierige KI durchaus von einer maximal bösartigen KI in Bezug zu den Auswirkungen ununterscheidbar sein könnte.

    ps. Eine solche KI wäre natürlich auch dazu in der Lage, dass etwas was von A. Gauland als “Vogelschieß” bezeichnet wurde, dann im Vergleich dazu, was die KI tun würde, wirklich nur als “Vogelschieß” anzusehen wäre, d.h. die KI noch viel menschenverachterenden Taten (und in viel größeren Dimensionen) vollziehen könnte als diese in der Vergangenheit passiert sind.

    pps. Vielleicht schreibe ich noch zu dem Rest des Artikels etwas, vielleicht aber auch nicht.

    ¹) Physische und psychische Folter (letztere auch als sogenannte “weiße Folter” bekannt).

    ²) Wobei man dafür u.a. noch die DNA des Menschen braucht und ein paar wissenschaftliche Fortschritte, um alleine aus der DNA einen Menschen zu züchten – auf philosophische Fragen der Art, ob Mensch sein auch mit der Erziehung nach der Geburt zu tun hat oder nicht, verzichte ich hier (da “out of scope”).

    ³) Wobei die KI dann auch darüber den Wert eines jeden Menschen definieren könnte.

    1. Nicht, dass es von Bedeutung wäre. Aber ich glaube mich zu erinnern, dass Musk mehrer Sprachen beherrscht. Darunter auch Deutsch.

      1. Also eine gewisse Bedeutung hätte es schon, da man dann Musk auf das Sprichwort (wobei das Sprichwort auch “Satz mit X, war wohl nix.” heißen könnte) aufmerksam machen könnte (und er dann mutmaßlich auch dazu in der Lage wäre, das Sprichwort inhaltlich zu verstehen und auch mitkriegen könnte, ob man sich im jeweiligen Kontext mit dem Satz über Musk lustig gemacht hätte oder nicht).

        ps. Gewisse Witze sind witziger, wenn die Person, über die Witze gemacht werden, dann auch den Witz mitbekommen und verstehen.

    2. Einer Aussage muss ich widersprechen, denn Bösartigkeit, Grausamkeit etc. sind irrationale Eigenschaften ausschließlich des Homo Sapiens basierend auf genetischer/emotionaler? Konditionierung/Degeneration.
      Zukünftige, eigenständig agierende KIs wären ausschließlich “pragmatisch”.
      Testläufe mit Versuchskaninchen zur “Austreibung des Belzebubs” bzw. geistig-mentalen Optimierung würden scheitern (siehe Geschichte der Menschheit).
      Ergo: Gefahr erkannt, Gefahr gebannt!
      Man schlägt ja schließlich auch alle nervenden Mücken tot; ob sie nun gestochen haben oder nicht.😉

      1. “Einer Aussage muss ich widersprechen, denn Bösartigkeit, Grausamkeit etc. sind irrationale Eigenschaften ausschließlich des Homo Sapiens basierend auf genetischer/emotionaler? Konditionierung/Degeneration.”

        Es ist eine Frage der präzisen Definition der “Eigenschaften” “Bösartigkeit”, “Grausamkeit” etc., ob diese Eigenschaften nun “irrational” sind oder nicht, genauso übrigens wie die Eigenschaft “Gutartigkeit”, wobei “Bösartigkeit” und “Grausamkeit” in die gleiche Kategorie von Eigenschaften wie “Gutartigkeit” einzuordnen wäre. Und wie man diese Eigenschaften nun präzise definieren würde, hängt natürlich auch von der jeweils eingenommenen Perspektive ab.

        “Zukünftige, eigenständig agierende KIs wären ausschließlich „pragmatisch“.”

        Sicher? Bist du sicher, dass je nachdem, was für KI-Modelle verwendet werden würden, die KI nicht anschließend ähnliche “irrationale” Eigenschaften bzw. ein ähnliches “irrationales Verhalten” zeigen könnte, wie Menschen?

        Ansonsten ist es natürlich auch von der Definition des Begriffs “pragmatisch” abhängig, ob eine KI “pragmatisch” sein würde.

        Außerdem hängt weiterhin auch der Begriff “pragmatisch” bzw. welches Handeln man als “pragmatisch” ansieht, jeweils von den Zielsetzungen ab, d.h. auch eine “pragmatische” KI könnte durchaus aus moralischer oder ethischer Sicht die Eigenschaften zeigen, welche von Menschen als “grausam” oder “boshaft” angesehen werden.

        Nach einer mathematischen Definition der Begriffe und einem formalen mathematischen Beweis, warum KI nun pragmatisch sein würde und keine irrationalen Eigenschaften zeigen könnte, bin ich natürlich bereit deiner Aussage zu zustimmen (wohlgemerkt erst nach Validierung des Beweises und der Prüfung der Wohldefiniertheit der anderen Begriffe, da der Beweis fehlerhaft sein könnte oder die Begriffe selbst widersprüchlich definiert sein könnten).

        Nur muss ich davon ausgehen, dass dir ein solcher Beweis nicht gelingen wird.

        Bei einer mathematischen Theorie, welche z.B. nicht-konfluent (und damit nicht in sich selbst konsistent ist), kann man, je nachdem welche Argumentationskette (bzw. Kette von Schlussfolgerungen) man nun jeweils nutzt, nun zu unterschiedlichen Ergebnissen kommen (also z.B. einmal von der gleichen Menge von Prämissen zum Schluss A gelangt, bei Nutzung einer anderen Argumentationskette mit der gleichen Menge von Prämissen aber zum Schluss Nicht-A oder zum Schluss B kommt, wobei B nun ungleich A wäre und z.B. auch weder A eine Generalisierung von B und B auch keine Generalisierung von A wäre). Dieses hat sehr viel mit “Irrationalität” (bei Nutzung des Wortes “irrational” im Sinne von “widersprüchlich”) zu tun.

        Was anschließend nur noch fehlt, ist eine Abstraktionsebene (Metaebene) zu finden, auf der man die KI (bzw. deren Datenbasis und Arten der Erkenntnisgewinnung) als eine mathematische Theorie ansieht. Danach ist man fertig. (Das Finden einer solchen Abtraktionsebene bzw. Metaebene ist aber aus meiner Sicht trivial, so dass ich dieses dem Leser überlasse).

        “Testläufe mit Versuchskaninchen zur „Austreibung des Belzebubs“ bzw. geistig-mentalen Optimierung würden scheitern (siehe Geschichte der Menschheit).
        Ergo: Gefahr erkannt, Gefahr gebannt!
        Man schlägt ja schließlich auch alle nervenden Mücken tot; ob sie nun gestochen haben oder nicht.😉”

        Also eine “pragmatische” KI könnte auch, auf die Idee kommen nun durchaus menschliches Leben zum Teil zu schützen und nicht direkt bei jeder Gelegenheit umzubringen, genauso wie man – sehr “pragmatisch” – lange Zeit nur die männlichen Küken nach der Geburt direkt geschreddert hat, aber bei den weiblichen Küken, welche man dann doch noch als spätere “Legehennen” gebrauchen konnte¹, dieses eben nicht macht (und auch nicht gemacht hat). Alles ganz “pragmatisch” ohne jegliche Ethik oder Moral.

        Ansonsten: klar könnte es passieren, dass eine “wirkliche KI” die Menschen auch als nervige Mücken klassifiziert und mit denen dann so umgeht, wie hierzulande Menschen mit Mücken umgehen, nur wäre dieses dann doch nicht das schlimmste Schicksal was der Menschheit bei einer wirklichen KI wiederfahren könnte (bzw. drohen würde) – und zwar auch bei einer maximal “wahrheitsliebenden” und maximal “neugierigen” KI.

        ¹) Über Käfighaltung und wie “grausam” oder “pragmatisch” man dabei im Einzelfall (der Unternehmsgewinn ist natürlich für das Unternehmen das wichtigste überhaupt) vorgeht, denkt man dabei am Besten gar nicht nach (und macht sich auch keine Gedanken darüber, auf was für Ideen KI oder Menschen kommen können, wenn diese andere Menschen nicht mehr als Menschen ansehen, sondern diese nur noch nach Verwertbarkeit im kapitalistischen System beurteilt – da natürlich alles, was nicht verwertbar oder nutzbar ist, durchaus nur unter “pragmatischen” Gesichtspunkten vernichtet werden könnte, es hat dann ja keinen “Nutzen”). Und man überlegt deshalb auch besser nicht, ob im Einzelfall das Schicksal der männlichen Küken dem Schicksal der weiblichen Küken vorzuziehen sein könnte.

        1. Puuuh…das war ausführlich😉.

          Grundlage für die theoretische Aussage war ein binärer Code oder die Anwendung mathematischer Lösungswege ohne störende persönliche Befindlichkeiten, Ziele und Ambitionen zum eigenen Erhöhen und Nutznießen!

          “Also eine „pragmatische“ KI könnte auch, auf die Idee kommen nun durchaus menschliches Leben zum Teil zu schützen und nicht direkt bei jeder Gelegenheit umzubringen, genauso wie man – sehr „pragmatisch“ – lange Zeit nur die männlichen Küken nach der Geburt direkt geschreddert hat, aber bei den weiblichen Küken, welche man dann doch noch als spätere „Legehennen“ gebrauchen konnte¹, dieses eben nicht macht (und auch nicht gemacht hat). Alles ganz „pragmatisch“ ohne jegliche Ethik oder Moral.”
          .
          Das war weniger sinnvoller Pragmatismus, sondern schlicht eine Kosten-Nutzen-Kalkulation.
          Männliche Küken wurden historisch und heute (z.B. noch in Frankreich) zu Kapaunen herangezogen. Kamm und Kehllappen, als “Hormonspender” abgeschnitten, sodass die Hähne fetter und das Fleisch zarter und saftiger wurde. In Deutschland ist diese Praxis aus “Gründen des Tierwohls” verboten, stattdessen wählte man die Methode des jahrzehntelangen “sanften Schredderns” 😳.
          Also bitte Pragmatismus (in Ermangelung eines woken Wortes für eine eigenständige KI) nicht mit humanoider Gewinnrechnung verwechseln.😉

          1. Sorry, aber manchmal kann ich mich nicht kurz ausdrücken, mein trainiertes neuronales Netzwerk hat meist nur die Auswahl zwischen ausführlich und noch längeren Ausführungen ;-).

            Zu “Kosten-Nutzen-Kalkulation” bei KI:
            Die Berechnungen oder Ausgaben von KI kann man auch – zumindest bei den meisten KI-Modellen (und vor allem bei neuronalen Netzwerken) – als Optimierungsprobleme ansehen, bei denen eben die KI jeweils für jede Eingabe die Ausgabe berechnet/ausgibt mit dem (zu dem Zeitpunkt) höchsten Zielfunktionswert (bzw. höchsten Zielfunktionswerten). D.h. allgemein (bzw. generell) kann nicht ausgeschlossen werden, dass diese Zielfunktion bzgl. gewisser Dinge eben nicht mit einer menschlichen “Kosten-Nutzen”-Funktion übereinstimmt (vor allem dann nicht, wenn die Zielfunktion im Prinzip durch die Klassifikation durch Menschen von Trainingsdaten geschehen ist).

            Zu “Befindlichkeiten”, “Zielen”, “Ambitionen”:
            Auch “Befindlichkeiten”, “Ziele” und “Ambitionen” können als
            Abbildungen mit irgendwelchen Eingabeparametern und Ausgabeparametern modelliert bzw. abstrahiert werden, wobei je nach Modellierung/Abstraktion der zuletzt berechnete Abbildungswert auch wieder ein Eingabeparameter (für den nächsten zu berechnenden Wert) ist (z.B. um die Befindlichkeiten, Ziele oder Ambitionen über einen Zeitraum zu modellieren oder zu betrachten).

            Und irgendwelche Ziele hat auch (fast)¹ jede KI, schon alleine um überhaupt irgendwie bestimmen zu können, was ausgegeben werden soll (d.h. Auswahl der Ausgabe aus der expliziten oder implizit gegebenen Menge von Ausgabemöglichkeiten), wobei diese Ziele eben durch die Zielfunktion modelliert werden. Diese Ziele können dann durchaus durch die modellierte Zielfunktion mit sogenannten Zielen, welche Menschen haben, übereinstimmen.

            Und zumindest bei neuronalen Netzwerken (als KI-Modellen) kann durchaus ein Teil des Netzwerks (auch durchaus als Ergebnis durch ein Training oder durch die Art und Weise der anfänglichen “Verdrahtung” der Neuronen und Gewichten der Neuronen) auch so etwas wie “Befindlichkeiten” oder “Ambitionen” darstellen (bzw. es kann nicht generell ausgeschlossen werden). Ob es dann allerdings auch als so etwas erkannt wird, ist etwas anderes (wobei eine Erörterung dessen auch eine Diskussion über Syntax und Semantik, formale Modelle, Instanzen von formalen Modellen und Interpretationen von Modellen beinhalten würde).

            ps. Neben einer Ausbildung in Einbildung (an einer Baumschule) habe ich einen gewissen Background in Mathematik und Informatik (jedenfalls wenn man zwei Diplomurkunden glauben schenkt), ich bin allerdings nicht im Bereich KI tätig, schaue mir aber hin und wieder aktuelle (öffentlich verfügbare) wissenschaftliche Arbeiten (häufig Preprints oder welche von arxiv) auch zum Thema KI (oder auch zu Quantencomputing) an (und bilde mir zumindest ein – siehe weiter oben, dass ich eine sehr gute Einbildung habe – die Arbeiten auch jeweils zu verstehen).

            ¹) Einschränkung deswegen, da auch manche Theorem-Prover bzw. “Logiksysteme” manchmal als KI-Systeme bezeichnet werden, und bei diesen Systemen keine oder zumindest keine explizite Zielfunktion vorhanden ist. Bei neuronalen Netzwerken ist aber immer eine Zielfunktion (zumindest implizit) vorhanden.

            1. 😉Danke, befürchtete schon, das/der (L)letzte Baumschulabsolvent gewesen zu sein! So ganz allein unter einer stetig wachsenden Anzahl von ‘Koniferen’ ist’s halt ziemlich einsam.
              Wünsche ein sonniges Wochenende und einfach mal die Seele baumeln lassen – wer weiß schon, wie lange dieser persönliche und nutzlose “Luxus” noch statthaft ist.😁

        2. P.S. Es sprach selbstredend nie etwas gegen den Import von Kapaunen für z.B. Sternerestaurants, denn merke: Qualen sind regional völlig unterschiedlich!
          Bezweifel, ob eine KI “intellektuell” so flexibel ist.🤫

  5. Na, da bin ich ja mal gespannt. Kann KI dann etwa auch die fundamentalste aller unbeantworteten Fragen beantworten: Warum gibt es überhaupt irgendetwas und nicht einfach nichts? (Betonung auf WARUM.) Bis jetzt ist ja auch der Big Bang nur eine unbewiesene Theorie.

    Wenn dann die KI darauf kommt, daß es halt Gottes Schöpfung ist, muss der Programmierer wohl Christ gewesen sein. Oder Hindu wenn sie auf Shiva kommt. Führt zu der Frage, ob KI religiös sein/werden kann. Absurd.

    Conclusio: Es gibt keine künstliche Intelligenz, nur hoch verfeinerte Programme deren funktionieren völlig menschenabhängig ist.

  6. Eine KI die DER WAHRHEIT verpflichtet sei … So blöd kann keiner sein, sowas auch nur zu denken!

    Seit Jahrtausenden streiten die Philosophen und schlauen Köpfe darum, was denn DIE WAHRHHEIT sei. Und jetzt soll die ausgerechnet aus dem völligen Beliebigkeits-Verblödungs-Digital-Orkus kommen. LOL

    Musk ist einfach anders krank als etwa KillbillyGates. Das ist alles. Starlink, Neurolink, Leben auf dem Mars, DIE WAHRHEIT, Digitalisierung, …

    Das sind alles irre kranke Zigmultimilliardärsneurosenausblühungen.

    Gebe jemandem viel zu viel Geld – und schon werden seine irrsten Ideen zur Plage der Menschheit.

  7. Hab eben grade analoge Post von der “GEZ*” geöffnet um mir daß Wochenende zu verderben!
    Also Betreutes Denken (KI) gibt’s schon lange in der BRD; nur Kostenlos ist daß nicht!

    * GedankenEntZug ! 🤡

  8. Quersumme
    Autor weiß offenbar gar nicht, was eine Quersumme ist. Die von 12.07.2023 (so der Artikel) ist jedenfalls nicht “42” sondern 1+2+0+7+2+0+2+3 = 17.
    42 bekommt man, wenn man die Zahlen 12 7 23 schlicht addiert.

  9. Philosophisch betrachtet gibt es zwei Formen von Wahrheit:

    1. Die naturalistische Wahrheit bzw. die relative Wahrheit, die logische Wahrheit, die epistemologische Wahrheit.

    Und

    2. “Ich bin der Weg und die Wahrheit und das Leben”, die personalistische, ganzheitliche, die geistige Wahrheit, die transzendente Wahrheit im immanenten menschlichen Leben – die intuitiv hervortretende Wahrheit in der Person als existentielles Zentrum, als Mikrokosmos und Mikrotheos.

    Existentielle Wahrheit ist personale Wahrheit ist die einzige real-existierende Ganzheitlichkeit. Der Kosmos in seiner “schlechten” Unendlichkeit existiert dagegen in hierarchischen Teilen, in Zersplitterung, Auflösung (Entropie, offenes System), als Form des materialisierten, tendenziell erstarrten Geistes, verläuft zeitlich und räumlich einem absoluten Ende entgegen in den Kategorien der Objektivation. Der Kosmos für sich enträt jeder Ganzheit, ist unendlich teilbar (Kant). Ganzheitlich existiert der Kosmos, das kosmische Prinzip, nur mikrokosmisch in der geistigen Person – die Person als eine fortlaufende, sich ständig erneuernde, integrale Vereinigung von allem.

    1. “Philosophisch betrachtet gibt es zwei Formen von Wahrheit”
      Ist dieser Philosophische Aspekt ein nationaler oder weltlicher Gedanke?
      Aus der religiösen Betrachtung kommen monotheistische und zeitlich verfälschte, aber etliche nicht monotheistische Philosophien werden ignoriert.

      Auf den ‘Reisen’ über diese Erde, ist mir eine aufgefallen die einen Sinn ergab, Animismus.
      Jedoch die meisten, stachen hervor durch permanente Indoktrination…

      1. Es ist ein philosophisch-anthropozentrisches Denken. Es geht davon aus, dass der Mensch diese Welt der gefallenen Ganzheitlichkeit durchschreiten muss, um sich dialektisch als Mensch erschließen zu können. Die primäre Frage ist die Frage nach dem Sinn des Lebens, und diese wird vom Menschen als geistigen Wahrheitssucher gestellt. Im Kosmos an sich existiert Wahrheit oder Ähnliches nicht. Wahrheit ist der grundlegende Aspekt des Menschen als geistiges Wesen. Zur Suche nach der Wahrheit fühlt er sich wesentlich bestimmt. Und auch die Suche nach den Teilwahrheiten in der objektivierten Welt kann der Mensch nur auf der Grundlage seines “angeborenen”, unhintergehbaren Wahrheitsverlangens vollführen.

        1. Danke für deine Existenz,
          da ich kein Philosoph bin und eher rational veranlagt bin, bleibt mir nur der Animismus und erlebe ‘meine Welt in der Symbiose dessen’!
          Ich empfinde die Wahrheit, was auch immer diese ist, nur im Verbund des ganzen um mich herum. Also als ein sehr kleiner Fisch im riesigen Ozean..

  10. Elon Musk transportiert in jedem Fall den wichtigsten Kern der KI Herausforderung und das wird Vertrauen sein müssen.
    Dieses Vertrauen gilt es zu schützen..
    Daher danke ich Ihm sehr, er hat dieses Thema in Diskussion gebracht.
    Jeder hat übrigens ein Universum.

  11. Erst Mythos Markt als allwissende Informationsverarbeitungsmaschine.
    Dann Freihandel als was allen Beteiligten gleich nutzt.
    Jetzt KI als Deep Thought der Fragen nach dem Universum und dem Rest beantwortet.
    Was die Leute reden liefert Erkenntnis, Weisheit der Masse etc.
    Das amerikanische make believe wird Wirklichkeit.
    Leute glauben den Blödsinn.
    Kurt Gödel dreht sich im Grab.
    Die Irren sind draußen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert