KI vs. Verschwörungstheorie

Computergehirn
Quelle: Pixabay

Eine KI, die nach die KI geschaltet werden soll, damit sie die vorherige KI überwacht, sagt alles über Künstliche Intelligenz, was man darüber wissen muss.

“Künstliche Intelligenz nehme ich erst ernst, wenn die menschliche Dummheit abgeschafft ist”, hatte ich unlängst einmal spaßeshalber gesagt, als ein Gespräch auf den akuten KI-Hype kam und ein Zitat des Computeringenieurs Emerson Pugh angefügt: “Wenn unser Gehirn so simpel wäre, dass wir es verstehen könnten, wären wir so simpel, das wir es nicht könnten.” Solange wir also das Gehirn und seine hervorragenden Eigenschaften – allen voran das Bewusstsein – nicht wirklich verstanden haben, solange können alle Versuche, es nachzubauen nur laienhafte Versuche bleiben. Die Unternehmungen des “Re-Engeneering” der Gehirnfunktionen in der Hoffnung, dass so etwas wie Bewusstsein/Intelligenz dabei herauskommt, erinnern ein wenig an den Cargo-Kult von Eingeborenen, die halluzinierten, mit Leuchtfeuern, Holzkopfhörern und Fahnen den fortgesetzten Abwurf von Flugzeugladungen heraufbeschwören wollen. Okay, ganz so verrückt ist es mit den Hoffnungen auf KI nicht mehr, immerhin ist ChatGPT mittlerweile für Bachelor,- und Doktorarbeiten gut, was aber nicht heißt, dass KI vor Halluzinationen, dem Verwechseln von Einbildung und Wirklichkeit, geschützt ist. Die KI-ChatBots haben kein Wissen von der Wirklichkeit, sondern basieren auf Wahrscheinlichkeiten und Prognosen und sind somit zwangsläufig fehlerhaft. Einen zweiten KI-Bot als Faktenchecker dahinter zu schalten, wie ihn ausgerechnet Microsoft jetzt an den Start bringt, entspricht dem Geschäftsmodell: “Der Herr der schickt den Jockel aus” , Dazu Fefe auf seinem Blog:

Oh Mann. Ich habe ja einen Vortrag auf der Heise Security Tour gehalten…über die Frage, ob uns KI retten wird in der Security. Die Antwort war natürlich Nein. Die Begründung war, dass wir in der Security im Wesentlichen zwei Dinge tun: Sichere Architekturen konstruieren und existierende Dinge prüfen. Beides kann KI nicht. Dass KI Dinge nicht prüfen kann, habe ich damit illustriert, dass man sonst ja einfach eine KI hinter die erste schalten könnte, die auf Halluzinationen prüft. Die Idee ist so auffallend dämlich, dass es eigentlich gar nicht das Detail brauchte, dass das niemand tut, um zu verstehen, wieso das nicht funktioniert. “KI” halluziniert, und der Prüfer würde dann halt auch halluzinieren. Aber hey, keine Sache ist so dämlich, dass sich nicht irgendein Debiler findet, der es trotzdem macht. In diesem Fall: Microsoft. Ob die nach den Testern auch die Entscheider rausgeschmissen und durch “KI” ersetzt haben? Auf so eine bekloppte Idee kann eigentlich kein Mensch gekommen sein, hoffe ich zumindest aus rein eigennützigen Gründen. Ich möchte mir nicht vorstellen, dass meine Spezies so blöde ist. Damit noch Hoffnung besteht.

Faktenchecker KI?

Die Hoffnung stirbt ja angeblich zuletzt – was möglicherweise damit zu tun hat, dass hier auch einfach ein fehlerhafter Halluzinator hinter den anderen geschaltet wird. Wie auch immer, was bei der IT-Sicherheit nicht geht, weil die KI die Wahrheit der Netzwerkarchitektur nicht wirklich kennt, könnte ja vielleicht auf anderen Feldern funktionieren, also da, wo sich Intelligenz-Bots genau auskennen mit der Wirklichkeit, keinen elektronischen Halluzinationen anheimfallen und fehlerhafte Einschätzungen der menschlichen Intelligenz erfolgreich korrigieren können. Zum Beispiel auf dem ihm Rahmen des Wahrnehmungsmanagments und der Narrativkontrolle so wichtigen Feld der Verschwörungstheorien. Und siehe da: “Durably reducing conspiracy beliefs through dialogues with AI” meldet “Science” die Ergebnisse einer Studie, bei der im Dialog mit der KI der Verschwörungsglaube der Teilnehmer um 20% reduziert worden sein soll, “Mondlandung doch echt ? – KI überzeugt selbst hartgesottene Skeptiker”, setzt “Telepolis” noch einen drauf. Beide Organe zählen ja eigentlich nicht zur YellowPress, aber niemand scheint da auf die Idee von der Beklopptheit der Idee (siehe oben) gekommen zu sein.

Da es in diesen Dialogen mit der KI querbeet um den jeweiligen Verschwörungsglauben der 2190 Versuchskaninchen ging – vom lebenden Elvis über JFK bis zu Aliens und 9/11 – hätte auch  ein Blick in das “Lexikon der Verschwörungstheorien” , das ich 2000 mit Robert Anton Wilson herausgebracht habe, wahrscheinlich locker für mindestens 20% “Heilungserfolg” sorgen können. Da davon auszugehen ist, dass eine schlaue KI ein solches Standardwerk kennen sollte, ebenso wie in Sachen Kennedy-Mord zum Beispiel das Buch “JFK -Staatsstreich in Amerika”, wäre ich sehr gespannt , wie mich die KI von meinem Unglauben an die “magische Kugel” und den Einzeltäter Oswald abbringt. Oder mir das 9/11-Märchen von Osama und den 19 Teppichmessern, die mit zwei Flugzeugen drei Wolkenkratzer dem Erdboden gleichmachten, so überzeugend nahebringt, dass ich der Geschichte eine zumindest 20-prozentige Wahrscheinlichkeit zusprechen muss. Weil ein einzelner Verstand nicht so viele Daten sammeln kann wie ein Computer, ist davon auszugehen, das eine gut gefütterte KI deutlich mehr über JFK oder 9/11 weiß als ich und deshalb auch zu deutlich anderen Wahrscheinlichkeiten für die Wahrheit dieser ungeklärten Fälle kommt. Doch dann wäre zu überprüfen, ob sie ein echtes Bild dessen was wirklich geschah zusammensetzt, oder ob sie mal wieder halluziniert – und der “Faktenchecker” kann keine KI sein, es sei denn sie ist noch ein bisschen besser gefüttert, aber dann…siehe oben.

Wem es gelingt, dir falsche Fragen einzureden, dem braucht auch vor der Antwort nicht zu bangen”

Und: was passiert, wenn unser perfekt gefütterter Chat-Bot  erkennt was zB den Einsturz von WTC 7 am 11.9.2001 betrifft, dass als Ursache brennenden Büromöbeln – wie in der offiziellen  Version – nur eine Wahrscheinlichkeit von unter 0,5 % zukommt. Entwickelt sich die KI dann selbst zum Konspirologen und verbreitet Zweifel am herrschenden Narrativ oder wird sie von ihren Wärtern  dann abgeschaltet, sicherheitshalber, weil sie noch nicht gelernt hat, zwischen offiziell erwünschten und unerwünschten Verschwörungstheorien zu unterscheiden und nur erstere als “wahrscheinlich wahr” durchgehen zu lassen. Ein ChatBot mit einem IQ über Zimmertemperatur, der alle Ungereimtheiten der offiziellen 9/11-Story kennt, könnte sie nicht mehr als historische Realität akzeptieren und wäre dann sicher auch  in der Lage, bei einer Studie 20 % der Teilnehmer zum “Verschwörungsglauben” zu bekehren – indem sie darlegt, dass es sich bei der offiziellen 9/11-Version um eine Erzählung handelt , die von der Realität und gerichtsfesten Beweisen  nicht gedeckt ist. Wie auch immer: die Maschine kann nur wissen, was ihr an Daten vorliegt, deren Qualität wiederum von der Vielzahl und Zuverlässigkeit der Quellen abhängt.

Auf der Ars Electronica in Linz 1990,  nach einer Konferenz über Virtuelle Realität, saß ich in einem schönen Wirtshaus mit dem Bewusstseinsforscher Timothy Leary zusammen als ein weiterer Referent auf der Suche nach etwas Essbarem zu uns stieß: der “Vater” der “Künstlichen Intelligenz” und Gründer des AI-Labors am Massachussets Institute of Technolgy (MIT) Marvin Minsky.  Sofort führten die beiden ein angeregtes Gespräch und ich war glücklich, zwischen diesen beiden Pionieren – dem “kalten” Maschinenintelligenzler und dem “heißen” Neuro-Kosmonauten – “Mäuschen” spielen zu können. (Hier meine Reportage über diese Konferenz: “Postymbolische Kommunikation”) Als irgendwann die Rede auf Science-fiction-Filme kam, fragte Leary, ob sich Minksy an einen Streifen aus den fünfziger Jahren erinnere, in dem ein Professor eine Maschine baut und an sein Gehirn anschließt. Den genauen Titel des Films bekam ich nicht mit, aber Minskys begeisterte Antwort: „Na klar kenne ich den, das war doch der Film, nach dem ich beschloss, ein genauso verrückter Wissenschaftler zu werden…“
Der Hype um das “Elektronengehirn”, den er seit Ende der 50er-Jahre entfacht hatte, war mangels praktischer Erfolge zu diesem Zeitpunkt schon ebenso abgeklungen wie die  Investitionen in KI. Außer Schachcomputern war wenig “Intelligentes” dabei herausgekommen und auch die waren eigentlich nur schnelle Rechenmaschinen und Minsky mit seinen Prognosen schon deutlich kleinlauter. Drei Jahrzehnte später sind die Rechenmaschinen um ein Vielfaches schneller, Phantastilliarden werden investiert um sie “intelligent” zu machen bzw. zu behaupten sie seien es schon. Dabei sind sie immer noch nichts anderes als Rechner, schnelle Suchmaschinen, auch wenn sie sich  wie Perplexity  jetzt schon “Antwortmaschine” nennen. Beim Ausprobieren haben wir da natürtlich immer Thomas Pynchon im Sinn: “
Wem es gelingt, dir falsche Fragen einzureden, dem braucht auch vor der Antwort nicht zu bangen.”

Ähnliche Beiträge:

75 Kommentare

  1. Man kann nur hoffen, daß es unmöglich ist, das menschliche Gehirn zu verstehen, zu erkennen, was Bewußtsein bedeutet. Im Grunde handelt es sich bei der sogenannten KI genau wie bei der Klimafrage um ein sehr ertragreiches Geschäftsmodell, mit dem uns Zwänge übergestülpt werden, die wir auch noch selbst bezahlen.

    1. Da wir nicht wissen wie Bewusstsein entsteht, können wir auch nicht ausschließen, das wir es in der KI zufällig erschaffen. Was die Übergestülpten Geschäftsmodelle betrifft, ist es wie allgemein mit der Digitalisierung/Internet: wenn man nicht dabei ist, ist man wahrscheinlich irgendwann einfach abgehängt.
      Man kann nur versuchen eine kritische Distanz zu wahren.

      1. Man kann mit Sicherheit ausschließen, dass die KI jemals Bewusstsein erlangen wird. Ihr Funktionsprinzip basiert darauf, statistische Methoden anzuwenden. Da kommt nie etwas anderes dabei heraus, als ein berechnetes Ergebnis.
        Das ist zwar beeindruckend nah an dem, was Menschen zustande bringen, hat aber nichts mit den Prozessen, die beim Menschen ablaufen, wenn er geistig tätig, zu tun.

        1. Du sprichst über AKTUELLE KI-Modelle der Gegenwart, die tatsächlich nur bessere Statistikauswertungsprogramme mit sehr vielen Parametern sind. Daß dafür der Ausdruck “Künstliche Intelligenz” benutzt wird, ist reines Marketing.
          Ganz anders sieht es bei der IT-Forschung aus, die an neuromorphem Computing arbeitet, mit Nachbildungen von Neuronen. Da kann das ganz anders ausgehen mit echten Intelligenzleistungen.

          Was aber unbedingt vorher geklärt werden muss: was IST Intelligenz eigentlich…?

    2. “KI genau wie bei der Klimafrage”

      Ich muss zugeben, dass ich als Vor-der-Tür-Sportler extrem begeistert über die Treffsicherheit heutiger Wettervorhersagen bin. (ARD-Wolkenfilm).

      Die Regenradarvorhersagen über die nächste 1-2 Stunden sind hilfreich, aber lassen noch zu wünschen übrig.

      Man muss die rasende Entwicklung der EDV der letzten Jahrzehnte nicht in allen Aspekten lieben, auch ich nutze vieles nicht, was letztlich in Überwachung enden wird. Aber alleine die durch das Internet dazugekommenen neuen Informationsmöglichkeiten sind ähnlich Weltsicht-verändernd wie damals die Kombi aus Buchdruck (15. Jh) und im 18. und 19. Jahrhundert das in Deutschland aufblühende Verlagswesen, das anders als in England, lange nicht vom Urheberrecht geknebelt war.
      https://www.telepolis.de/features/Wem-nutzt-das-Urheberrecht-3386495.html

      Die Strafaktionen gegen Leaker und Kampagnen gegen alternative Medien sind das, was das Urheberrecht für Gedrucktes ist.

  2. Anstatt sich zu bemühen, wie das Gehirn funktioniert, sollte man – wie z.B. Hegel es getan an – sich anschauen, wie geistige Leistungen funktionieren, also was Wahrnehmung vom Erkennen und Urteilen unterscheidet und was die jeweiligen Qualitäten dieser Leistungen ausmacht

    Die Hirnforschung hat stattdessen das Gehirn untersucht und sich angeschaut, was physiologisch passiert, und wo es passiert. Dahinter steht weniger der Gedanke, das Denken zu verstehen, als es zu kontrollieren. Nicht umsonst wurde gleich von Hirnscannern aller Art fantasiert. Eine Art Blick ins Innerste des Menschen (aka Verdächtigen). Der Traum aller Sicherheitsbehörden.

    Die KI macht es nicht besser. Sie geht von vorneherein nicht den Weg, verstehen zu wollen, wie Denken funktioniert. Sie möchte die Leistung des Denkens in einen Algorithmus packen. Eine Funktion, die bei einem (nahezu) beliebigen Input “Y” in kurzer Zeit, ermüdungsfrei, 24 Std. am Tag einen Output “X” generiert, der dem entspricht, was der zu ersetzende Mensch produziert hätte.

    1. “Dahinter steht weniger der Gedanke, das Denken zu verstehen, als es zu kontrollieren.”

      Ich denke auch, dass es nicht lange dauern wird und die dahinter geschaltete KI wird schlicht eine Liste von unerwünschten Ergebnissen bekommen und die Ausgabe der halluzinierenden KI damit abgleichen. Vergleichbar der Liste, die Youtube, Facebook, Twitter etc. anlässlich der Cortona-Zeit oder wegen des Ukrainekriegs oder wegen des Syrienkriegs bekamen.

      Da wird dann einfach zwischen gültiger und ungültiger Wissenschaft, zwischen gültigen und ungültigen Interessen unterschieden und alles ist wieder im Lot.

  3. Irgendwie bekomme ich beim Thema KI irgendwie immer Erinnerungen an dystophische Filme wo jemand in die Zukunft versetzt wird und auf eine absolut maschinenverdummte Menschheit stößt – “Idiocraty” oder die Originalversionen von “Planet der Affen” bzw. “Terminator” (wo eine KI namens “Skylap” sogar einen Atomkrieg auslöst nachdem die “Herrschaft der Maschinen” beginnt die die Menschheit an den Rand des Aussterbens bringt)

    Zum Glück gibt es aber noch selber denkende Menschen im echten Leben, wie Herr Bröckers, die dafür sorgen, dass die KI eben das bleibt was sie ist – etwas dem menschliche Gehirne vorher meist sagen sollen was es zu tun hat – eben wie der Computer, die Software, selber, der eigentlich “dumm ist weil Mensch ihm immer sagen muss was er tun soll” wie mir mal ein IT-Profi sagte 😉

    Die menschliche Intelligenz hat ja durchaus unterschiedliche Abstufungen, und vielleicht erklärt sich auch so der Hype um die KI🤔

    Immer dran denken was von Nerds geschaffen wurde kann durchaus für Normalos wie uns als KI durchgehen – so kann das Spielzeug KI auch schnell enttarnt werden – siehe mein Hinweis oben “IT-PROFI” 😉😁

    Sarkastischer Gruß
    Bernie

      1. @Publicuser

        Danke für Ihre Korrektur *schäm* Sie haben natürlich recht – ist etwas länger her, dass ich “Arnie´s Terminator” gesehen habe,.

        Gruß
        Bernie

  4. Vielleicht soll KI demnächst als oberste Autorität dienen. Dann kommt dan in den Nachrichten „laut KI …“
    Letztens suchte ich bei einer KI nach einen Zitat von einem Schriftsteller. Dreimal schickte mich die KI in ein Theaterstück des Schriftstellers, wo ich dann suchte nicht hier nicht da nicht dort. Als ich dann eingab vielleicht vom Volksmund und nicht von dem Schriftsteller. Kam dann die Lösung.
    Was mich verwunderte das dreimal ein Vorschlag kam wo nicht einmal ein paar Wörter des „Zitates“ vorkamen. Ich hatte ohne Absicht mit der Annahme das Zitat käme von dem Schriftsteller die „KI“ auf die falsche Fährte gebracht.
    Also liebe Schüler gebt fein acht!.

  5. Das Beste für die ganzen Deppen der IT Branche inkl. der herrschenden Klasse wird sein, dass sie dann immer behaupten können, wenn’s dann nicht läuft, dass es wohl an der KI liegen wird, mit den Schultern zucken werden, und dabei nicht einmal einen Anflug von einem schlechten Gewissen haben werden.

    1. Etwas ähnliches passiert schon lange in der Geschichte der Menschheit.
      Eventuell liegt hier das Geheimnis der BeGRÜNdung von Religion.

    2. “und dabei nicht einmal einen Anflug von einem schlechten Gewissen haben werden.”

      Die Dinger werden, schon aus Schadenshaftungsgründen, sehr wahrscheinlich nur dort eingesetzt werden, wo sie nachweislich besser abschneiden als Menschen. Das dürfte auch der Grund dafür sein, dass wir noch nicht massenhaft selbstfahrende Autos haben, denn in komplizierten Situationen scheitern die (noch) am mangelnden Tiefenverständnis ihrer Umwelt.

  6. Also ich halte Fefes Worte zum Thema jetzt auch nicht für das gelbe intellektuelle vom Ei.

    Eben so nicht die Sätze von HR. Bröcker wie:

    “weil die KI die Wahrheit der Netzwerkarchitektur nicht wirklich kennt.”

    Hr. Bröcker verwendet auch auffallend das Wort “Wirklich” und “Halluzination” in seinen Artikel über KI.

    Die Frage ist nicht so sehr ob eine KI das Narrativ der US Regierung entlarvt sondern eher Warum sich Menschen durch dieses Ereignis motiviert fühlen Kriege zu führen mit Menschen die damit so gut wie nichts zu tun haben.

    Oder warum Menschen sich für das Thema Umweltschutz gerade zu religiös-fanatisch ereifern dabei aber exakt das Gegenteil herauskommt.
    Siehe (nur EIN Beispiel) Ukraine Krieg.
    Oder sollte ich lieber Weltkrieg schreiben ?
    Oder europäischer Krieg ?

    Und Nein Hr. Bröckers es geht bei KI nicht nur um Immer mehr Rechenleistung es geht auch um ausgefeiltere Algorithmen und Methoden.
    Ein Paar warten eventuell noch auf ihre Entdeckung.

    Da heute Sonntag ist hab ich mal Hr. Bröckers Text Gemini zur Kritik gegeben:

    Kritik zu den vorgelegten Sätzen und dem Zitat von Fefe
    Gesamteindruck:
    Der Text ist reich an Informationen und Verweisen auf historische Ereignisse sowie prominente Persönlichkeiten der KI-Forschung. Er stellt eine Verbindung zwischen der Entwicklung der Künstlichen Intelligenz und gesellschaftlichen Themen wie Verschwörungstheorien her. Die Sprache ist anspruchsvoll und reich an Fachbegriffen, was den Text für ein breites Publikum möglicherweise weniger zugänglich macht.
    Spezifische Kritikpunkte:
    * Mangelnde Strukturierung: Der Text wirkt stellenweise etwas sprunghaft und könnte von einer klareren Gliederung profitieren. Die verschiedenen Gedanken und Aspekte werden nicht immer konsequent miteinander verknüpft.
    * Überfrachtung mit Informationen: Die Vielzahl an Informationen und Verweisen kann den Leser überfordern. Es wäre hilfreich, sich auf die zentralen Aussagen zu konzentrieren und diese klarer herauszuarbeiten.
    * Unklare Argumentation: Die Argumentation, insbesondere im Zusammenhang mit Verschwörungstheorien und der Rolle der KI, ist stellenweise nicht ganz schlüssig. Es bleibt unklar, inwiefern die KI tatsächlich dazu beitragen könnte, Verschwörungstheorien zu verbreiten oder zu widerlegen.
    * Zitierte Aussage von Fefe: Die Aussage “Wem es gelingt, dir falsche Fragen einzureden, dem braucht auch vor der Antwort nicht zu bangen” wird zwar zitiert, aber nicht ausreichend eingeordnet und in den Kontext der gesamten Argumentation gestellt. Es bleibt unklar, welche Bedeutung Fefe dieser Aussage zuschreibt und wie sie sich auf die Entwicklung der KI bezieht.
    Konkrete Vorschläge zur Verbesserung:
    * Klärung der zentralen These: Der Text sollte eine klare These formulieren, die die gesamte Argumentation zusammenfasst. Zum Beispiel: “Die Entwicklung der Künstlichen Intelligenz birgt das Potenzial, die Verbreitung von Verschwörungstheorien zu verstärken, da sie es ermöglicht, komplexe Informationen schnell und gezielt zu manipulieren.”
    * Strukturierung in Abschnitte: Der Text könnte in verschiedene Abschnitte unterteilt werden, die sich jeweils mit einem bestimmten Aspekt beschäftigen, z.B. historische Entwicklung der KI, aktuelle Herausforderungen, Rolle der KI bei der Verbreitung von Verschwörungstheorien.
    * Vereinfachung der Sprache: Fachbegriffe sollten erklärt werden oder durch einfachere Ausdrücke ersetzt werden, um den Text für ein breiteres Publikum zugänglich zu machen.
    * Vertiefung der Argumentation: Die Argumentation, insbesondere im Zusammenhang mit Verschwörungstheorien, sollte vertieft werden. Es sollten konkrete Beispiele angeführt werden, wie KI-Systeme dazu missbraucht werden könnten, um falsche Informationen zu verbreiten.
    * Einordnung des Zitates von Fefe: Das Zitat von Fefe sollte eingeordnet werden und in Bezug zu den anderen Aussagen gesetzt werden. Es könnte beispielsweise erläutert werden, wie die Aussage von Fefe im Zusammenhang mit der Entwicklung von Chatbots und der Bedeutung von Fragen für die Generierung von Antworten steht.
    Fazit:
    Der Text bietet einen interessanten Einblick in die Entwicklung der Künstlichen Intelligenz und ihre möglichen Auswirkungen auf die Gesellschaft. Durch eine klarere Strukturierung, eine vereinfachte Sprache und eine vertiefte Argumentation könnte der Text jedoch noch überzeugender gestaltet werden.
    Zusätzliche Aspekte, die berücksichtigt werden könnten:
    * Ethische Aspekte: Die Entwicklung von KI wirft zahlreiche ethische Fragen auf. Diese könnten ebenfalls in den Text eingebunden werden.
    * Zukünftige Entwicklungen: Es könnte ein Ausblick auf die zukünftige Entwicklung der KI gegeben werden und mögliche Szenarien diskutiert werden.
    Hinweis: Diese Kritik ist als konstruktive Anregung zur Verbesserung des Textes gedacht und erhebt keinen Anspruch auf Vollständigkeit.
    Möchtest du, dass ich mich auf einen bestimmten Aspekt des Textes konzentriere oder weitere Vorschläge zur Verbesserung mache?”

    Dann speziell zu Fefes Worten:
    “Die Antwort war natürlich Nein. Die Begründung war, dass wir in der Security im Wesentlichen zwei Dinge tun: Sichere Architekturen konstruieren und existierende Dinge prüfen. Beides kann KI nicht. ”

    Dazu Gemini:
    “Diese Aussage ist in mehreren Punkten zu hinterfragen:
    * Statische Sicht auf KI: Die Aussage suggeriert, dass KI nur statische Aufgaben lösen kann. Tatsächlich ist KI in der Lage, dynamische Prozesse zu analysieren und vorherzusagen, was in der Security für die Erkennung von Anomalien und Bedrohungen von großem Nutzen ist.
    * Enge Definition von “konstruieren”: KI kann bei der Konstruktion sicherer Architekturen unterstützen, indem sie riesige Datenmengen analysiert, um Schwachstellen aufzudecken und optimale Konfigurationen zu empfehlen.
    * Vernachlässigung der Automatisierung: KI kann repetitive Aufgaben automatisieren, wie z.B. das Scannen nach Schwachstellen oder das Überwachen von Logdateien. Dies spart Zeit und ermöglicht es Sicherheitsexperten, sich auf komplexere Aufgaben zu konzentrieren.
    * Ignorierung des Lernfaktors: KI-Systeme lernen kontinuierlich dazu und können ihre Fähigkeiten im Laufe der Zeit verbessern. Dies ist besonders wichtig in einer sich ständig verändernden Bedrohungslandschaft.
    Eine mögliche Kritik könnte lauten:
    “Die Aussage, dass KI in der Security keine Rolle spielt, greift zu kurz. Während es stimmt, dass menschliche Expertise bei der Gestaltung sicherer Architekturen unerlässlich ist, kann KI eine wertvolle Ergänzung sein. Durch die Automatisierung repetitiver Aufgaben, die Analyse großer Datenmengen und das Erkennen von Mustern, die für Menschen schwer zu erkennen sind, kann KI die Effizienz und Genauigkeit von Sicherheitsprozessen erheblich steigern. Die Behauptung, dass KI keine existierenden Dinge prüfen kann, übersieht die Fortschritte in Bereichen wie der statischen und dynamischen Codeanalyse sowie der Verhaltensanalyse. Es ist wichtig, die Potenziale von KI in der Security anzuerkennen und sie als Werkzeug zu betrachten, das die Arbeit von Sicherheitsexperten unterstützt, anstatt sie zu ersetzen.”
    Zusätzliche Punkte, die in der Kritik angesprochen werden könnten:
    * KI und menschliche Expertise: KI sollte als Ergänzung zur menschlichen Expertise gesehen werden, nicht als Ersatz.
    * Ethische Aspekte: Es ist wichtig, die ethischen Implikationen des Einsatzes von KI in der Security zu berücksichtigen.
    * Kontinuierliche Weiterbildung: Sicherheitsexperten müssen sich mit den Entwicklungen im Bereich der KI vertraut machen, um diese Technologie effektiv nutzen zu können.
    Möchtest du, dass ich weitere Aspekte oder Kritikpunkte ausarbeite?”

    PS: Was eventuell tröstend für Hr. Bröcker und Fefe sein könnte die Kritik von Gemini war noch nett.

    1. Exakt, volle Zustimmung, vor allem zu dem, was vor Gemini steht. Die KI steht doch erst am (selbstentwickelnden) Anfang. Insofern ist Herrn Broeckers Text zynisch zu betrachten.

      Als ob “wir Menschen” je in der Lage waren, “die Wirklichkeit abzubilden”. Wir benutzen doch nur 3% der zur Verfügung stehenden Leistung. Ich schätze Herrn Broeckers zynische Kommentare zum Weltgeschehen sehr!: gerade er führt uns hervorragend die allgemeine Doofheit der Menschheit vor Augen. Aber bei solch einem Thema droht man sich leicht in Widersprüche zu verstricken. Und das beherrscht offensichtlich auch Fefe. Als ob die menschlichen Programmierer in der Lage wären, “sichere Strukturen” aufzubauen. Echt jetzt? Make no mistake: technisch in der sogenannten “Abbildung der Realität” dürfte die KI dem Menschen sehr schnell überlegen sein. Aber bei Empathie, Liebe, Mitgefühl… sieht es anderes aus. Aber sei’s drum, diese Dinge gibt es bei der überwiegenden Mehrheit der Menschen nicht mehr – bzw. gab es vorher auch nicht.

    2. Du hast das Problem der “ChatBots” mit deinem Gemini-Auszug sehr schön dargelegt:
      Es kommt ein Text dabei raus, der altbekannte Argumentationen repetiert und dabei einen Eindruck von Vollständigkeit vermittelt, der nicht vorhanden ist. Dabei geht Quantität der Argumente vor Qualität.

      Hier Fefe:
      “Oh Mann. Ich habe ja einen Vortrag auf der Heise Security Tour gehalten…über die Frage, ob uns KI retten wird in der Security. Die Antwort war natürlich Nein. Die Begründung war, dass wir in der Security im Wesentlichen zwei Dinge tun: Sichere Architekturen konstruieren und existierende Dinge prüfen. Beides kann KI nicht.”

      Im Wesentlichen läuft es darauf hinaus, dass die KI nichts verifizieren kann. Das hängt damit zusammen, dass eine KI.Antwort nicht reproduzierbar ist: es kommt nicht notwendig immer die gleiche Antwort auf den gleichen Input.
      Ein Programm als Beispiel einer “sicheren Architektur” kann richtig sein oder falsch sein. Wenn es mal richtig und mal falsch ist, habe ich ein Problem.

      Zurück zum TExt. Gemini darauf:
      “Die Behauptung, dass KI keine existierenden Dinge prüfen kann, übersieht die Fortschritte in Bereichen wie der statischen und dynamischen Codeanalyse sowie der Verhaltensanalyse. Es ist wichtig, die Potenziale von KI in der Security anzuerkennen und sie als Werkzeug zu betrachten, das die Arbeit von Sicherheitsexperten unterstützt, anstatt sie zu ersetzen.”
      Das ist Geschwafel. Irgendwelche “Fortschritte in Bereichen wie der statischen und dynamischen Codeanalyse sowie der Verhaltensanalyse” werden halt mal behauptet. Allerdings sind zur Beurteilung von Code reproduzierbare Ergebnisse notwendig. Wenn jedesmal was anderes dabei rauskommt, kann ich mir das Ergebnis irgendwo hin stecken.

      Es ist ja nicht so, dass es nicht ohne KI Automatisierung von repetitiven Vorgängen gibt. Es gibt Programme, die Logdateien scannen, auswerten und als Ergebnis entsprechende Aktionen initiieren. Wenn das Ergebnis reproduzierbar ist, kann ich auch Fehler in der Konfiguration finden.

      Ein weiteres Problem ist die Komplexität. Mit der KI klatsche ich dann noch eine weitere Schicht Komplexität auf meine Sicherheitsarchitektur. Nehmen wir das Beispiel Virenscanner und sonstiger Sicherheitsapplikationen: die dann selbst gern noch Scheunentorgrosse Sicherheitslücken mitbringen, wie das Verfolgen der einschlägigen Nachrichten zeigt.

      Und – das zum Schluss – dein Chef wird das Super-Duper-KI-Programm nicht anschaffen, damit Du mehr Arbeitszeit darauf verwendet. Er schafft es an, damit es Dir Arbeit abnimmt. Es soll Deine Expertise ersetzen. Und damit nimmt das Unheil seinen Lauf.

      1. “Es ist ja nicht so, dass es nicht ohne KI Automatisierung von repetitiven Vorgängen gibt. Es gibt Programme, die Logdateien scannen, auswerten und als Ergebnis entsprechende Aktionen initiieren”

        Na ja sowas wird halt heutzutage als KI gelabelt.
        Hat man früher auch gemacht kam aus der Mode und ist jetzt wieder da.
        Es wäre für Fefes Firma vielleicht besser gewesen wäre er nicht mit halbgaren Gedanken
        über das Thema hergezogen sondern hätte sich näher mit so was beschäftigt:
        https://www.google.com/url?sa=t&source=web&rct=j&opi=89978449&url=https://scholar.google.de/scholar_url%3Furl%3Dhttps://central.bac-lac.gc.ca/.item%253Fid%253DMR63696%2526op%253Dpdf%2526app%253DLibrary%2526oclc_number%253D771915051%26hl%3Den%26sa%3DX%26ei%3DhmoCZ-ieE7CDy9YPgrj5gAQ%26scisig%3DAFWwaebwVy-DSjjarwE7k9-VbH-e%26oi%3Dscholarr&ved=2ahUKEwit7bTvyfmIAxVGhf0HHeMrAaEQgAN6BAgREAE&usg=AOvVaw35tnGBMLxIaVIglIQp-ebA

        “Ein weiteres Problem ist die Komplexität. Mit der KI klatsche ich dann noch eine weitere Schicht Komplexität auf meine Sicherheitsarchitektur. Nehmen wir das Beispiel Virenscanner und sonstiger Sicherheitsapplikationen: die dann selbst gern noch Scheunentorgrosse Sicherheitslücken mitbringen, wie das Verfolgen der einschlägigen Nachrichten zeigt.”

        Definitiv.
        Ein Ausweg könnte nur in der Vollautomatisierung liegen allzu kritische Infrastruktur und den Nuklearen Holocaust würde ich dieser aber nicht anvertrauen anderseits Menschen auch nicht unbedingt.

        Außerdem gilt es am besten ernsthaft zu hinterfragen wieso Computer in unserer Gesellschaft eigentlich so allgegenwärtig (sehr passendes deutsches Wort) sind.

        Ist es Spieltrieb geparrt mit einen Streben nach Sicherheit ?
        Nun das mit der Sicherheit kann man sich besten abschminken.
        Und am besten zur Frage kommen:
        Wieso , Warum und Wozu arbeiten eigentlich Menschen ?

    1. ein Gefühl, das nicht von Gedanken interpretiert wird, kann sich nicht irren. ein Gedanke, der nicht von Gefühlen unterfüttert wird, ist nicht motiviert, Gefühle und Gedanken, die nicht verkörpert werden, können nicht erfolgreich adressiert werden.

        1. Du hast das Selbe gemacht wie eine KI: kopiert.
          Nur die KI kopiert viel schneller Du…
          Und die Bibliotheken voll Müll: hast Du die alle durchgelesen? Oder gelten für Dich nur die Schriften von dem Präfaschisten Steiner als Nicht-Müll?

  7. Hallo Herr Bröckers,

    ich teile ihren Pessimismus nicht und die Angst der meisten Menschen auch nicht (und fefe nehme ich schon länger nicht mehr ernst, spätestens seit er bei allen linken Themen selektiv sein Hirn ausschaltet, der sieht nur, was er sehen will).

    Ich bin selbst Informatiker und soweit ich unseren Verstand verstehe, arbeitet der auch mehr oder weniger modular. Verschiedene “Modelle” hintereinander zu schalten macht absolut Sinn, wenn eine K.I. z.B. ein Bild analysieren kann und in einzelne Objekte unterteilen, dann kann sie die extrahierten Objekte, also z.B. ein Auto, weitergeben als Input an eine andere K.I. die dann z.B. das Modell oder den Zustand erkennt oder die dystopische Version: die eine extrahiert den Menschen und gibt das Bild an die Gesichtserkennung (oder die Abschuss-KI weiter). Damit lassen sich erstaunlich komplexe und zuverlässige Expertensysteme konstruieren.

    K.Is werden mittlerweile mit, von anderen K.Is generierten, Input gespeist, weil dafür riesige Datenmengen nötig sind. Und ihr Output wird ebenfalls (teilweise) von K.Is kontrolliert. Am realen Beispiel, eine Bildgenerierungs-KI soll komplexere Bilder erstellen und man will die zur Linksindoktrinierung schön divers haben, also mit vielen bunten Leuten, dann gibt es eine nachgeschaltete K.I. die sich genau um das kümmert und die alle Bilder, auf denen “nur” weiße Menschen zu sehen sind oder gar “nur” weiße Männer, mit negativen Feedback an die Generierung-KI zurück, bis sie was schön buntes und weibliches bekommt (böse rechte Menschen haben das dann ausgenutzt, um sich schöne diverse Bilder von Nazis generieren zu lassen 🙂 )

    Auch bei halluzinierenden K.Is dürfte das funktionieren. Man schaltet ja nicht (wie fefe impliziert) zwei gleichartige K.Is hintereinander (zumindest würde mich das sehr wundern), sondern die eine ist z.B. darauf trainiert, reale Objekte zu erkennen, die andere darauf, Bilder zu erzeugen. Wenn jetzt die erste das Bild nicht mehr auflösen kann, schickt sie eine Meldung an die erste, dass der Output nichts taugt und die erste “lernt” daraus. Ich vermute so in etwa würde das ablaufen.

    Die Entwickler, die in den großen Techfirmen werkeln, sind erschrocken bis euphorisch, was alles möglich ist. Leute wie Bill Gates sind der Meinung, dass die K.Is “gut skalieren”, d.h. mit mehr Rechenleistung (die kaufen mittlerweile eigene Atomkraftwerke dafür!) steigt auch die Leistung der K.Is.

    Ob sie jemals tiefes menschliches Denkvermögen erreichen, hängt wahrscheinlich von den Modellen und ihrer Verknüpfung ab, ich halte die “large language”-Modelle nicht unbedingt dafür geeignet, bin aber nicht tief genug in der Materie drin. Vielleicht stellt sich ab einem bestimmten Niveau an Verknüpfungen automatisch sowas wie Bewusstsein (im Sinne von sich selbst erkennen) ein, vielleicht auch nicht. Im Prinzip ist es Forschung “von unten”, also “probieren statt studieren”, ich erhoffe mir dadurch durchaus auch Erkenntnisse für die Erforschung unseres Bewusstseins.

    Am spannendsten ist die Frage nach den Gefühlen, ich schätze, die stellen evtl. eine Mauer dar, an der wir nicht weiterkommen, aber warten wir mal ab.

    Wir werden all das nicht verhindern können, es wird genauso über uns kommen, wie Internet und Smartphones. Es wird viele negative, aber auch unglaublich viele positive Seiten haben und unsere Möglichkeiten auf ein ganz neues Level bringen. Wir können nur reagieren, mitgehen, kritisch zuschauen, selbst probieren und das Beste daraus machen… und wenn es trotzdem schief geht? Na dann inkarnieren wir nächstes Mal halt auf einer Welt die keine KIs hat 🙂

    1. * Zukünftige Entwicklungen: Es könnte ein Ausblick auf die zukünftige Entwicklung der KI gegeben werden und mögliche Szenarien diskutiert werden.
      Endlich jemand der Geminis Empfehlungen ernst nimmt. 😉

    2. “Die Entwickler, die in den großen Techfirmen werkeln, sind erschrocken bis euphorisch, was alles möglich ist. ”
      Ach, ja. Insbesonders Geld kann man damit den Leuten aus der Tasche ziehen. TatsÄchlich gibt es auch Anwendungen mit teilweise guten Ergebnissen wie Bildgenerierung. Aber KI ist ja das Marketing-Argument für alles.

      “Leute wie Bill Gates sind der Meinung, dass die K.Is “gut skalieren”, d.h. mit mehr Rechenleistung (die kaufen mittlerweile eigene Atomkraftwerke dafür!) steigt auch die Leistung der K.Is.”
      Nein, die KI skaliert nicht gut. Sie ist ein Stromfresser, weil weil sie auf neuronalen Netzen basiert und neuronale Netze nichts anderes sind als eine Menge ineinander verschachtelter Schleifen.

      1. “Ach, ja. Insbesonders Geld kann man damit den Leuten aus der Tasche ziehen.”

        Sehe ich nicht so, die meisten großen KIs kann man kostenlos testen, einige sogar komplett herunterladen. Und wer naiv auf Marketingphrasen reinfällt, hat ein ganz anderes Problem…

        ” Aber KI ist ja das Marketing-Argument für alles.”

        Ja, und? War das anders zu erwarten? Eine hippe Technologie, die noch dazu nicht genau definiert ist, befindet sich plötzlich überall drin, weil man jeden simplen Entscheidungsbaum auch als neuronales Netz auffassen kann (scheinst du ja selbst zu machen mit deiner Interpretation “verschachtelte Schleifen”)

        “Nein, die KI skaliert nicht gut. Sie ist ein Stromfresser, weil weil sie auf neuronalen Netzen basiert und neuronale Netze nichts anderes sind als eine Menge ineinander verschachtelter Schleifen.”

        Wie kommst du zu dieser Schlußfolgerung? Und wieso leitest du daraus ab, dass es nicht gut skaliert? Ist für einen Halblaien wie mich, weder direkt nachvollziehbar noch unmittelbar logisch.

        1. Stromfresser:
          Du kannst Dir gpt4all herunterladen und auf Deinem PC installieren. 16 MB Hauptspeicher solltest Du mindestens haben. Frag irgendwas. Und beobachte den Ressourcenverbrauch Deines PC.

          Du wirst sehen, dass auch eine einfache, kurze Frage die Ressourcen Speicher und CPU auch bei einem aktuellen Mehrkern-System extrem in Beschlag nimmt. Steigert sich bei komplexeren Fragen. Der Rechenbedarf ist so hoch wie beim Coins Minen. Deswegen brauchen sie da eigene Atomkraftwerke. Nachhaltig ist das nicht – und meist das Ergebnis nicht wert.

          Skaliert dann auch nicht gut bei dem Ressourcenverbrauch.

          1. Ok, da haben wir unterschiedliche Auffassungen von skalieren. Für mich heißt das: wenn du mehr Rechenpower reinsteckst, steigt die Leistung in ähnlicher Weise, also wenigstens ein linearer Zusammenhang (doppelte Rechenleistung = doppelte KI-Leistung).

            Lässt sich bei KI natürlich nicht so einfach messen, aber wenn diejenigen, die das Geld dafür ausgeben, das als lohnend beurteilen (und die stecken da Milliarden rein), dann wage ich nicht zu widersprechen, irgendwas wird schon dran sein (und wenn nicht, ist der Hype bald vorbei)

            “Du wirst sehen, dass auch eine einfache, kurze Frage die Ressourcen Speicher und CPU auch bei einem aktuellen Mehrkern-System extrem in Beschlag nimmt. Steigert sich bei komplexeren Fragen. ”

            Das ist jetzt nichts, was mich überrascht. Für die Bild-KIs (flux z.B.) werden wohl mind. 64 GByte und eine leistungsstarke Karte empfohlen. Aber ich bin seit den 90igern mit IT beschäftigt und das war eigentlich immer so, dass neue Software die Grenzen der Hardware ausreizt (trotzdem will niemand drauf verzichten).

            “Deswegen brauchen sie da eigene Atomkraftwerke. Nachhaltig ist das nicht – und meist das Ergebnis nicht wert.”

            Ob es das wert ist, kann man streiten, auf ChatGPT kann ich z.Z. auch noch verzichten, für die schreibende Zunft kann das aber schon viel an Arbeit ersparen und eine KI wie AlphaFold (Proteinfaltung) könnte sogar ein absoluter Game Changer in der Forschung werden. Warum hocken wir überhaupt an PCs, die sind auch überflüsssig und verbrauchen nur Ressourcen? Der Grund ist, dass sie uns neue Möglichkeiten eröffnen, ohne sie würden wir z.B. nicht diese Diskussion führen 🙂

            Der Energieverbrauch ist natürlich ein Problem, ich denke das ist auch allen Beteiligten klar (schon weil es ein enormer Kostenfaktor ist). Ich bin gespannt, ob die das irgendwie in den Griff bekommen.

            “Das neuronale Netz ist eine mehrdimensionale Matrix von Werten, für die in einer Unzahl von Schleifen für jeden Entscheidungspfad statistische Wahrscheinlichkeiten berechnet werden. Der Entscheidungsbaum kommt beim gleichen Wert immer zum gleichen Ergebnis, das neuronale Netz nicht.”

            Was verstehst du unter “Schleife”?

            KIs sind, soviel ich weiß, deterministisch (sofern dein Feedback nicht sofort wieder als Trainingsdaten genutzt wird), da man nicht möchte, dass bei generativen KIs immer die gleichen Sachen rauskommen, benutzt man aber eine zufällig generierte Matrix als “Seed”. Gleiche Seed bedeutet auch gleicher Output (bei ansonsten unveränderten Parametern), zumindest ist das mein Wissensstand und auch plausibel. Es gibt da keinen grundsätzlichen Unterschied zu einem Entscheidungsbaum, außer dass ein Entscheidungsbaum i.d.R. noch menschlich nachvollziehbar ist, eine KI aber so umfangreich und chaotisch, dass sie zu einer Art BlackBox wird.

            1. Das Problem der Skalierbarkeit ist etwas komplexer:
              https://de.wikipedia.org/wiki/Skalierbarkeit
              https://de.wikipedia.org/wiki/Amdahlsches_Gesetz

              Ansonsten möchte ich mich nicht auf irgendwelche Nebenschauplätze verzetteln. Man sollte vielleicht auch genauer definieren, wovon man spricht, ist ja ein weites FEld. Zur Deterministik nur dieses:

              “Die Fähigkeit zu lernen ist eine Hauptanforderung an KI-Systeme und muss ein integraler Bestandteil sein, der nicht erst nachträglich hinzugefügt werden darf. Ein zweites Hauptkriterium ist die Fähigkeit eines KI-Systems, mit Unsicherheiten und Wahrscheinlichkeiten (sowie mit probabilistischen Informationen) umzugehen”
              https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

              Die LLMs sind ein guter Vorwand (und ein Mittel) für Google, Microsoft und Co., ihre Datensammelwut auszuweiten. Wobei der Nachteil noch ist, dass die Daten aus dem Internet gezogen werden: Garbadge in – garbadge out. Neu ist jetzt, dass der Input immer mehr auch der Output der Chatbots selbst ist. Das wird dann lustig.

              Ein kleiner Schritt für die Forschung, ein großer für Marketing und Bullshit-Bingo.

        2. “weil man jeden simplen Entscheidungsbaum auch als neuronales Netz auffassen kann”

          Nein, ein simpler Entscheidungsbaum folgt festen Bedingungen wie: wenn x < 1 dann links sonst rechts. Das ist reproduzierbar: wenn x < 1 dann geht es immer links

          Das neuronale Netz ist eine mehrdimensionale Matrix von Werten, für die in einer Unzahl von Schleifen für jeden Entscheidungspfad statistische Wahrscheinlichkeiten berechnet werden.

          Der Entscheidungsbaum kommt beim gleichen Wert immer zum gleichen Ergebnis, das neuronale Netz nicht.

          1. Ach, man spendiere dem Entscheidungsbaum halt eine Zusatzeingabe, so wie man auch nicht-deterministischen bzw. randomisierten Turingmaschinen Zusatzeingaben spendiert (bzw. ein Band auf dem eine Zusatzeingabe steht), um dann eine “deterministische” Turingmaschine zu erhalten.

            Der entscheidendere Punkt wäre, dass ein Netz zwar ein Baum sein kann, aber ein Baum eben nicht jedes beliebige Netz sein kann, da Netz (in gewisser Weise) ein anderer Begriff für Graph ist und Graphen eben auch durchaus Kreise enthalten können, wobei Kreise eben Pfade sind, bei dem der Anfangsknoten auch gleichzeitig der Endknoten sind (wobei ich hier leere Pfade, die keine einzige Kante enthalten, einfach unter den Tisch fallen lasse;-) ). Aber sofern die Ausgabe der neuronalen Netzwerke eben endlich ist (bzw. eine obere Schrane für die Länge der Ausgabe existiert), so gäbe es auch hier Möglichkeiten aus einem Netzwerk ein Baum zu machen…

            ps. Mittels Zusatzeingabe kriegt man auch die unterschiedlichen Ergebnisse bei gleicher Eingabe in den Griff ;-).

    3. So, so etwas Sinn macht (aber muss dieses etwas dann auch einen Sinn ergeben).
      Ein neuronales Netzwerk, was hinter ein anderes neuronales Netzwerk geschaltet wird, ergibt zusammen ein neuronales Netzwerk (klar Modularität macht es einfacher gewisse Teile unabhängig zu trainieren, aber bei neuronalen Netzwerken will man ja meist dann doch, mit möglichst wenig Wissen, einfach durch “hineinkippen von Trainingsdaten” und Training das ganze neuronale Netzwerk sich selbst trainieren lassen).

      Wirklich interessant werden gewisse Dinge erst, wenn verschiedene Ansätze miteinander verknüpft werden. Also Verknüpfung von neruonalen Netzwerken mit anderen Ansätzen, also z.B. nachgeschalteteten bzw. zwischen geschalteten Theorem Prover, Model Checker etc. pp. (je nach Problemstellung).

      Ansonsten gilt natürlich auch bei KI weiterhin das “No Free Lunch” Theorem.

      ps. Die ganze Diskussion zu KI halte ich für sehr amüsant.

      1. Ähm, ja. Weiß nicht, was ich darauf antworten soll. Es ist eine extrem dynamische, mit extrem viel Geld gedüngte Technologie, deren Ende m.E.noch nicht absehbar ist. Da wird in der Diskussion stark vereinfacht, weil es sonst niemand verstehen würde, da gibt es Fehlentwicklungen und Erfolge, Positives und Negatives usw. wie das halt bei jeder neuen Technologie ist.

        Leider habe ich bisher noch nichts praktisch damit machen können und daher auch noch keine vertieften Kenntnisse. Ich bin aber zu sehr Techniker, als dass ich nicht ein bisschen euphorisch wäre. Das könnte z.B. deutsch als Sprache retten, weil Realzeit-Übersetzungen möglich werden usw…

        1. Ja, KI ist extrem dynamisch, d.h. es hat sich seit der Entstehung des Begriffs stark geändert, was nun unter dem Begriff “KI” fällt und was nicht. Und ja, alle möglichen Firmen, welche “KI” als Marketingbegriff nutzen, werden mit viel Geld gedüngt, genauso wie immer wieder viele Start-Ups mit exterm viel Geld gedüngt wurden (und werden), welche dann Probleme hatten (bzw. haben werden), dann später auch wirklich lukrativ zu werden (also die Investition zu rechtfertigen). (Aber in einigen Fällen hilft bzw. half erst kostenlos anfixen und dann später, wenn man groß genug ist und man eigentlich keine Konkurrenz mehr hat, dann die Preisschraube immer weiter anzuziehen).

          Zum letzten Absatz: Theorie ist meistens erstmal wichtiger als Praxis, allerdings muss man später dann zeigen können, dass man die theoretischen Kenntnisse auch in der Praxis anwenden kann. Soll heißen um die Techniken, welche heutzutage als “KI” bezeichnet werden, zu verstehen, sind vor allem erstmal theoretische Kenntnisse von nöten (und keine praktische Erfahrung).

  8. Kaum hat die GEMA das Wort “Künstliche Intelligenz” gehört, waren diese Aaasgeier schon auf der Matte und haben ihren Anteil daran geltend gemacht, denn in Musik, die mit KI generiert wird, man höre und staune, würde ja alle bisherige Musik mit einfließen, bei denen sie, die GEMA, ja der Rechteinhaber sind. KI ist nichts anderes als ein neues Abzockermodell der herrschenden Kapitalisten.

    1. Das ist natürlich von der GEMA alberner Unfug, weil sie beispielsweise den Ton c1 nicht urheberrechtlich schützen kann, andererseits könnte den KI-Machern dabei das Geld ausgehen, in Folge hätten wir keine KI-generierte geschlumpfte Musik mehr.

    2. Somit gehörte ja der GEMA das gesamte Werk jedes Künstlers mit Ohren, weil der ja jedes Musikstück der GEMA-Geschichte potentiell kennen könnte…
      Verarsche without borders.

  9. Interessant das Superreiche in die KI investieren lassen, soll heißen die Energieversorgung von SKYNET wird auf Erneuerbare umgestellt. Wenn das Störungsfrei sichergestellt ist, wird’s an die Frage gehen ob die Superreichen überhaupt noch in der Schönen Neuen Welt nötig sind.

    SKYNET wird die Zukunft und Menschen sind dann so überflüssig, wie heute alle möglichen Tierarten, Insekten, Pflanzen und Meeresbewohner es sind. Sie verschwinden für Immer und Ewig aus dem Lebenskreislauf.

  10. Es ist letztendlich eine einfache Frage.:
    Wollen wir Geld ausgeben für eine natürlich lebendige ,wachsende Welt oder für eine digitale tote Kunstwelt.
    c’est tout

    1. falsche Frage. richtige Frage: ist es möglich, als Gesellschaft aus einer weitgehend digital vernetzten und partial digital gesteuerten Welt auszusteigen und was versprechen wir uns davon?

  11. Das ganze bescheidene Klimpergeld, dass die von anderen geilen Projekten bestens bekannten üblichen Verdächtigen in AI “investieren”, alles wohl nur, um noch mehr Wohlstand und – natüüüürlich – Sicherheit zu gewährleisten. Herrschaftszeiten, wie wär es denn mal damit das eigene, das hoffentlich vorhandene nicht künstliche Hirn ein- und das der eingangs genannten, der Menschheit achso geneigten “Investoren” vorsorglich bis auf Weiteres mal auszuschalten?

    Vielleicht mal Gemini und Kollegen fragen, wie Letzteres denn angestellt werden könnte! Aber Vorsicht, mutmaße mal, die Verweildauer des Türblatts in der Angel hinter einem dürfte relativ kurz ausfallen, je nach Anzahl der davor flugs aufgebotenen SEK-Stiefel.

  12. Intelligenz ist nicht nur eine Frage des Gehirns, weil Menschen Individuen sind (also unteilbare Einheiten, die ein Ganzes bilden). Das bedeutet, Mensch aufzuteilen in Körper und Geist oder ähnlich, ist eine falsche Grundannahme, die daher zu falschen Schlüssen führt.
    Die Verstandesleistung lässt sich nicht vom Rest des Individuums trennen, sie ist immer ein Gesamtergebnis auch der emotionalen und hormonellen Zustände.

    Im Übrigen ist Intelligenz an sich je bereits schwer definierbar, je nach Kontext und Betrachtungsrahmen könnte man beispielsweise den Homo Sapiens als eine der am wenigsten intelligenten Spezies betrachten, weil er die einzige Spezies ist, die ihr Dasein auf Ratio und Planbarkeit gründet, was bedrohliche Veränderungen der Parameter auf diesem Planeten mit sich bringt. Sozusagen war vielleicht bereits die Fokussierung auf den Verstand als Werkzeug (und das Vergessen der Tatsache, dass der Verstand nur EIN Werkzeug ist) nicht besonders intelligent, wenn man es von einer höheren Ebene beurteilt.

    Dass wir Werkzeuge so exzessiv benutzen, könnte in einem solchen Kontext als geradezu strunzdämlich bewertet werden.

    Intelligenz ist also immer eine Frage des Rahmens, in dem gemessen werden soll. Allein der Versuch, künstliche Intelligenz zu erschaffen, könnte ein Ausdruck mangelnder natürlicher Intelligenz sein. Damit wären wir als Menschheit der Geisterfahrer, der glaubt, alle anderen führen falsch….

    1. „Im Übrigen ist Intelligenz an sich je bereits schwer definierbar, je nach Kontext und Betrachtungsrahmen könnte man beispielsweise den Homo Sapiens als eine der am wenigsten intelligenten Spezies betrachten,…“

      Der Homo sapiens ist die an der Umwelt am wenigsten angepasste Art, eine der unspezifiziertesten Lebensformen hier auf der Erde. Insofern würde ich daher nicht von „wenig“ im Zusammenhang mit Intelligenz sprechen (wenig intelligent), sondern von unspezifizierter Intelligenz.
      Ein Vogelgehirn ist, neben anderen Sinneswahrnehmungen wie beispielsweise das Sehen, speziell auf das Fliegen hin ausgerichtet.

      1. Das ist für flugunfähige Vögel aber sehr unkomfortabel…
        Ich verstehe den Ansatz, doch dass Homo Sapiens eine wenig spezifisch angepasste Art ist, ist vielleicht Folge der Verstandesnutzung, nicht Ursache. Besonders, weil alle anderen Primaten vergleichsweise starker spezifisch angepasst sind.
        Je nach angenommenem Ziel, beispielsweise Fortbestand der Spezies, sind Krokodile enorm intelligent. Existieren seit über 200 Millionen Jahren und haben mehrere Massenaussterben überstanden.
        In Bezug auf diesen Aspekt deutet sich an, dass die Lebensart der Krokodile deutlich intelligenter ist, als was sich bei Homo Sapiens anbahnt…

  13. “Aber hey, keine Sache ist so dämlich, dass sich nicht irgendein Debiler findet, der es trotzdem macht. In diesem Fall: Microsoft.”
    Warum wundert mich der 2. Satz jetzt nicht wirklich?

  14. “Wenn unser Gehirn so simpel wäre, dass wir es verstehen könnten, wären wir so simpel, das wir es nicht könnten.”

    Wer einen so klugen Satz zitiert, sollte doch merken, dass danach nur Blödsinn steht (bis auf den Vergleich mit dem Cargo-Kult).

    Wenn wir nicht wissen, ob im Kopf sowas ähnliches wie KI werkelt, oder auch mehrere verschachtelte, dann wäre das halt möglich oder nicht. An Evidenz für Dummheit mangelt es jedenfalls nicht.

    Alles reine Spekulation.

    Wie der selbsternannte IT-Sicherheitsversteher mit kindlichen Spitznamen ständig darüber blubbert, dass nur er wüsste, wo das Problem liegt: man muss Software nur gleich sicher schreiben. Daran erkennt er, wie dumm alle anderen sind, die nicht von Anfang an darauf kamen. Und er merkt dabei nichts.
    Denn auch das Böse würde aussterben, wenn nur alle fromme Christen werden würden.

    Jeder kann mal aus Versehen was richtiges sagen. Ich würde auch Adolf recht geben, wenn ich wüsste, ob er mal was kluges gesagt hat. Deshalb würde ich mich aber nicht auf ihn berufen und auch mal jemanden fragen, der wirklich Ahnung hat. Leider stolpern viel zu oft Leute mit einer großen Fresse nach oben.

    Die meisten IT-Deppen sind von Literatur (außer SciFi-Romanen) unbefleckter als die heilige Jungfrau Maria. Wollen aber mit ihrer If-Then-Else-“Denk”weise in Endlosschleife der Menschheit was vom Pferd erzählen. Wie man diesen Blogger und Trekkie-Spinner, der glaubt, alle Probleme ließen sich weg”techen”, ernst nehmen kann, erschließt sich mir nicht. Mich nimmt doch auch niemand ernst.

    Darum: Ehre, wem Ehre gebührt…

    Er wusste schon vorher, dass die Inder aussterben, weil sie wegen Covid im Ganges badeten. (Sun May 30 2021)
    Als der Schulschließungsbeauftragte der Informatiker gab er u.a. folgendes zu Protokol:
    “Wenn ihr euch nicht impfen lasst, und euch dann ansteckt, dann seid bitte so konsequent und geht zum Sterben in den Wald irgendwo [..]. Ihr nehmt da sonst legitimen Patienten die Ressourcen weg.” (Fri Aug 27 2021)
    “Nicht ICH verurteile da Menschen zum Tod, sondern DIE verurteilen sich zum Tod, wenn sie sich nicht impfen lassen.” (Mon Aug 30 2021)

    Da schimmert wohl die Kompensation des adipösen Gewissens bezüglich der Belastung des Gesundheitssystems durch. Und er rechtfertigt sich bis heute.

    1. ja.
      bauen wir Gebote um den Cargo-Kult und bestimmen wir, welcher Cargo-Kult erlaubt sein soll und welcher nicht. weiterhin stellt sich die Frage einer zivilrechtlichen oder strafrechtlichen Relevanz. sind psychologische Gutachten zu erwägen?
      könnten wir von Kultzertifikaten profitieren und so eine neue Verwaltung etabliert werden? die Kultprüfstelle … oder ein*e Kultbeauftragt*in er vielleicht.

  15. Herr Bröckers verbindet Chat-Bots, Sprachmodelle (LLMs), ein Experiment zu Verschwörungstheorien mit einer für ihn prägenden Erfahrung in Linz vor über 30 Jahren zum Thema VR, meine Klassifizierung: https://de.wikipedia.org/wiki/Namedropping

    Zum Verständnis: Sprachmodelle kennen keine Fakten, nur kontextbezogene Gewichtungen. Das Ergebnis des Experiments zu Verschwörungstheorien ergab, dass Menschen, sobald sie sich über ein generativen vortrainierten Transformer (GPT) mit ihren Verschwörungserzählungen auseinandersetzen, die Möglichkeit besteht dass Menschen von Verschwörungserzählungen sich historischen oder belegbaren Fakten annähern. Ohne jeden Zynismus, die Rezeption eines Texts auf Wikipedia ist vermutlich ähnlich erfolgreich.

    Folgen wir Herrn Leitners Logik, z.B. als Statik, Berechung von Belastbarkeit: Damit ein LLM über einen GPT Statik berechnen kann, muss es diesen Kontext kennen. Die „KI“ verwendet in diesem Fall GPT und LLM um notwendige Parameter und Formeln zu ermitteln und berechnet. Hat die entsprechende „KI“ keine Schnittstelle zur Mathematik entsteht eine Halluzination, ein Ergenis aus einer naheliegenden kontextbezogenen statistischen Gewichtung und keine Berechnung.

    Stand der Forschung ist, Halluzinationen sind fester Bestandteil von grossen Sprachmodellen, und ähnlich wie die Blockchain weder okönomisch noch okölogisch nachhaltig. Bei spezifischen Aufgaben machen neuornale Netze Sinn, z.B. Proteinstrukturvorhersage durch AlphaFold – für „KI“ in Form von Bots, GPTs und LLMs gilt wie Suchmaschinen und das allseits beliebte Internet: Erst gestalten wir unsere Werkzeuge, dann gestalten sie uns. (John Culkin)

    1. Anders gesagt, der “GPT” ist in der Lage, Menschen mit anderen Auffassungen (“Verschwörungserzählungen”) zu belabern. Das schafft bei entsprechend labilen Persönlichkeiten auch die Tagesschau oder der Pfarrer.

      Sorry, “Verschwörungserzählung”, “Narrativ”, das ist postmoderne Pseudowissenschaft. Ideologie pur.

      Eine wissenschaftliche (noch viel zu freundliche, dafür humorvolle) Entgegnung gegen diesen Irrsinn:
      Terry Eagleton, Die Illusionen der Postmoderne. Ein Essay, Stuttgart/Weimar (Metzler) 1996.

  16. “Wenn unser Gehirn so simpel wäre, dass wir es verstehen könnten, wären wir so simpel, das wir es nicht könnten.”

    Dieser Satz ist, ohne eine präzise Definition von “simpel” und “verstehen” sinnlos. Außerdem kann “simpel” in beiden Fällen mit einer anderen Bedeutung belegt sein (bzw. aufgefast werden). Ansonsten gibt es einfache Rechnermodelle, welche turing vollständig sind. Anschließend kann man sich dann die Frage stellen, ob unser Gehirn etwas berechnen kann, was nicht berechenbar ist. Und weiterhin dann, ob ein Gehirn in der Lage ist generell Turingmaschinen oder Rechnermodelle, welche turing vollständig sind, zu verstehen.

    Alles andere danach (bzgl. des obigen Satzes) wäre dann eine Frage für Philosophen (aber bitte nur Philosophen, welche nicht gerade versuchen zu speisen).

    ps. Aus dem obigen Darlegungen kann man inferieren, ob ich die Aussage des zitierten Satzes für korrekt halte bzw. unter welchen Definitionen der Worte “simpel” und “verstehen” ich die Aussage des zitierten Satzes für korrekt halten würde (und unter welchen Bedeutungen der beiden Wörter eben nicht).

  17. Menno, ich stell mir grad einen 13 – 15 jährigen vor, wie ich mal einer war, der es liebt, “Logikrätsel” zu lösen (bis er nach dem 3. oder 5. merkt, was für ein schematischer Rechenquatsch das wird), den vielleicht das Unglück ereilt, hier zu lesen.
    Das Unglück beginnt schon hier, und zu den anderen Punkten werde ich nicht auf einen Ritt kommen, weil ich Hunger habe:

    “Wenn unser Gehirn so simpel wäre, dass wir es verstehen könnten, wären wir so simpel, das wir es nicht könnten.”

    Der Satz vereint gleich zwei neoreligiöse Mythen, eine über “das Gehirn”, eine über “Verstand” resp. “verstehen”.
    Um gleich beide auf einen Schlag ein Stück weit zu dekonstruieren, erinnere ich an das Bild, das Kinder bieten, die lernen, Dinge zu ergreifen.

    In der Zeit, die Piaget die “sensomotorische Phase” nennt, lernt ein Kind, welche Effekte die Schwerkraft auf die trägen und bewegten Massenmomente seines Leibes ausübt, indem es z.b. lernt, nach Dingen zu langen, um sie zu ergreifen.
    Parallel, weil eine Voraussetzung dazu, lernt es motorische Wahrnehmungskontrolle, d. h., es lernt, wie es die interne Wahrnehmung seiner örtlichen Lage und Stellung seiner Glieder zueinander, allgemein: seine (motorische) Propriozeption, mit der optischen Wahrnehmung zu koordinieren hat, um nicht fehl zu langen und zu greifen.
    Klingt furchtbar kompliziert?
    Ist es auch, vor allem, wenn ihr bedenkt, daß die Schwerkraftwirkung in jeder unterscheidbaren Bewegungsrichtung einen anderen Vektor und obendrein eine andere Hebelwirkung je nach Abstand des Dinges zum Körper hat. Aber zugleich ist es ein elementar simpler Prozess! Jede der eingeschlossenen Phasen ist einfach, und genau deshalb kann ein Kind greifen lernen, weil es über die Selbstwahrnehmung jeden Fehler, der zum Fehlgriff führt, einzeln korrigieren kann.
    Aber damit ist auch klar, daß diese Intelligenz im Gehirn nicht “ihren Sitz” hat, gelle?

    Und nicht allein das! Nicht nur ist die Gesamtheit des Nervensystems und die darin sedimentierten Lernprozessse an dieser Intelligenz beteiligt, die Gegenstände der Wahrnehmung und der motorischen Aneignung, der Leib des Kindes selbst, sind darin eingeschlossen.
    Was bitte soll ein “Verstehen” ohne “Verstandenes” sein??
    Richtig, das Ding nennt man “Algorithmus” und es liegt jenseits allen Verstandes. Es ist ein Arbeitsverfahren, das einen wohlbestimmten Input in ein Verhältnis zu einem mehr oder auch weniger bestimmten Output setzt, weil und indem sowohl Input wie Output in solch einem vorgefertigten Verhältnis stehen (1).

    Eure (christliche) Kultur ist total am Arsch.

    (1) Solche Algorithmen sind offenkundig im Genom von Tieren sedimentiert und geben Trajektorien vor, mit denen sie Bewegung und Bewegungskontrolle erlernen. Aber wenn es halt nicht nur darum geht, von A nach B zu kommen, sondern beispielsweise, von A nach B auf eine Weise zu kommen, die es erlaubt, ein davonstiebendes Beutetier zu ergreifen, dann dürfen solche Algorithmen nicht weit reichen, sie müssen Raum für Verstand lassen.
    Die bürgerliche Inquisitionskultur will dem Verstand idealerweise gar keinen Raum mehr lassen!

    1. Nett gesprungen, aber als Bettvorleger gelandet. Ein guter Gedanke, dass “Denkprozesse” keine isoliert zentralnervöse “Schaltung” sind, wobei Sensorik, Motorik, autonomes Nervensystem und endokrines System ihre Rolle spielen.

      Mit dem Algorithmus wagt sich einer aufs Glatteis. Vom Greifen des Säuglings zur Turingmaschine ist eine gewisse Kluft zu überschreiten, ob man das in Automatentheorie beschreiben kann, ist fraglich. Dass “Algorithmen im Genom von Tieren” “sedimentiert” (sic!) sein sollen und “Trajektorien vorgeben”, ist pseudonaturwissenschaftlicher Stuss.

      Schon klar, was gemeint ist, aber blas Dich nicht so auf.

    2. Danke für diesen Kommentar, aber das wäre doch nun wirklich nicht nötig gewesen!

      (Wer mehr über meine Analogie wissen will, mag “Reafferenz” googlen)

        1. ?
          Das “macht” einen gewissen “Sinn” in Bezug auf das formal operative Denken, aber dort ist es Resultat, nicht Ausgangspunkt.

          Zu der anderen Sache: Ich weiß ziemlich wenig von Simon Peres, aber ich vermeine, er verstand sich als Gentleman nach britischen Vorbildern, war deshalb Rassist in der Tradition der absolutistischen / jesuitischen Aufklärung. Das bäuerliche Auspeitschen, Aufhängen und ergänzende Menscheln überließ er gerne Scharon.
          Mein Posting dort ging ja ziemlich direkt auf die Arbeitsteilung der am Siedlerprojekt Mitwerkelnden.

  18. Alles hat 2 Seiten, doch bei KI habe ich immer das Gefühl, das man eine 10erpotenz übersieht..
    Die heute schon vorhandene KI könnte ganze Gesellschaften aus Ihren Gleichgewicht werfen, dazu langt Ihre aktuelle Leistungsfähigkeit schon.
    Die moderne Gesellschaft ist von Vorgaben geprägt die sich an Normen ausrichten, und hier überholt KI den Mensch schon lässig , sobald es um solche Bereiche geht. Das ist eine unglaubliche Leistung. Das einzige Dumme daran, Vergleiche mit dem menschlichen Hirn.
    Informationstechnik ist gebunden an Informationstheorie, ein von den Menschen erschaffenes System, nicht von der Evolution. Davon leitet sich der Begriff KI ab, nicht vom menschlichen Intellekt ..
    Das ist eine ganz andere Baustelle ..
    Das zunehmende Problem heutiger KI ist Ihre Ineffizienz , was eben zum Teil auch an Gesellschaftliche Vorgaben gebunden ist.
    Ich sehe aktuell 2 Probleme primär bei diesem Thema ..
    Energieverbauch aktueller Systeme, und Daten Beschaffung für solche Systeme, denn ohne Daten machen die teile kleinerlei Sinn.
    Aber Persönliche Daten gehören nun einmal zu einer natürlichen Person, und mein Eindruck, Politiker interessiert das ganze Thema gar nicht. Und hier fangen die aktuellen Probleme an bei Gesellschaftsordnungen, die auf freiheitlichen Grundwerten aufgebaut sind.
    Dann Energieverbrauch, ich habe Zahlen sehen müssen letzte Woche, da wurde mir dunkel vor Augen..
    Ich vermute das Kapitalismus hier anderen Gesellschaftsmodellen das Feld wird irgendwann überlassen müssen, da Börsenmechanismen und Vorgaben das ausrichtigen aller wichtigen Entwicklungs-Prozesse in diesem Bereich primär an Kapitalvorgaben bindet, die bekanntlich keinerlei Vernunft kennen abseits von Profiterwirtschaftung.
    Und das dürfte bei solch Dimensionen den Planeten wohl weniger gut tun, und damit auch der Menschheit in Sachen Entwicklung.
    Und die Wissenschaft heute ” man muss es nicht begreifen können, es langt wenn man es rechnen kann” … o((

    Zum Thema menschliches Hirn, Jahrzehnte sammeln an Informationen, unmengen an Informationen, und mein Hirn teilt zb das alles meinem Bewusstsein mit über 1 einziges Gefühl …
    Völlig andere Baustelle als KI würde Ich denken .. o)

  19. Fortsetzung v. 6.10. 17:50 (Nur, weil es mir im Hirn rumspukt und ich es los werden will)

    Von der dort beispielhaft vorgestellten “sensomotorischen Stufe” ist weiter zu gehen, doch zuvor will ich die Fehler und die Einbildungen im Artikeltext benennen, gegen die sich das Bemühen richtet.
    Da heißt es:

    Solange wir also das Gehirn und seine hervorragenden Eigenschaften – allen voran das Bewusstsein – nicht wirklich verstanden haben, solange können alle Versuche, es nachzubauen nur laienhafte Versuche bleiben.

    Fragt euch mal rein formell, was das Argument dieses eigentümlichen Satzes ist.
    Na?
    Richtig. Das Argument lautet “nicht (!) wirklich(?!) verstanden”.
    Hoi, kann man etwas “unwirklich” verstehen?
    Warum benutzt Bröckers nicht ein sachgerechtes Attribut, wie zum Beispiel “unvollständig verstanden”?
    Genau! Weil er – und mit ihm auch die ganze Zunft der Neurologen, behaupte ich schon mal – gar nichts verstanden haben, und das wissen!
    Doch gegen dieses Wissen wollen sie das Dogma fest und hoch halten, “das (!! nicht etwa “ein”!!) Bewußtsein sei … Hirnprodukt. Und zwar das vornehmste!
    Leute, das ist ein rein theologisches Dogma.
    Bürgerlich-säkular ist es rein negativ begründet: Menschliche Tiere, die ohne Großhirn geboren werden, überleben zwar in einigen Fällen für eine mehr oder minder kurze Zeit, aber sie entwickeln zweifellos kein “Bewußtsein”, und wenn man einem Feind oder Sklaven den Schädel mit der Axt einschlägt, und er überlebt das zufällig, hat er auch kein “Bewußtsein” mehr.

    Christlich-theologisch aber ist das “Bewußtsein” von der Seele, der unsterblichen, geschieden, die ihren Sitz nicht im Hirn haben soll, weil sonst “Bewußtsein haben” und “gläubig sein” dasselbe wäre, und das wäre Häresie und Ketzerei! Stattdessen soll sich der Mensch gläubig zeigen, und das kann er nicht ohne ein arbeitendes Hirn, wie ausführliche Folterexperimente zeigen.

    Wie jeder weiß, hat bürgerlich säkular “Schuldeinsicht” und “Verantwortung” das gläubig-sein abgelöst und “die Seele” ist in “die Natur” entlassen worden, wo sie entweder ein mechanisch-chemisches Leben fristen, oder ein esotherisches “Ding zwischen Himmel und Erde” sein soll.
    Doch das Schema theologischer Überzeugung ist darüber dasselbe geblieben!

    Zurück zu Bröckers Satz.
    Er lügt sich um sein eigenes Wissen wie bekennendes Unwissen herum, indem er in seinem Satz das von ihm selbst benannte Objekt zum Prädikat “nicht wirklich (kennen) verstanden haben” vom Objektstatus ausschließt, das ist nämlich “Bewußtsein”, nicht “Hirn”.
    Wenn ich unterstelle, Bewußtsein sei ein “Hirnprodukt”, muß ich definitiv und vollständig (wenngleich nicht zwingend abschließend, sei epistemologisch sicherheitsnadelhalber beigefügt) wissen, was das ist, um ermitteln zu können, auf welche Weise es Hirnprodukt sein könnte.

    Der ganze Satz ist folglich feierliches Gelabere ins belletristisch Ungefähre, und der Skandal ist nicht, daß ein Bröckers ihn formuliert, sondern daß er mit vollem Erfolg darauf zählen kann, daß praktisch die gesamte bürgerliche Menschheit ein Publikum ist, das es ihm durchgehen läßt, wenn auch vielleicht mehr oder weniger mißmutig.
    Höchstens für die Mißmutigen spielt es eine Rolle, daß die Rede vom “Hirn nachbauen” eine gegenstandslose polemische Methapher ist: Kein Mensch versucht das. Versucht wird stattdessen, Hirnfunktionen “nachzubauen”, und daß das gelingen kann, ist ja nun wahrlich nichts Aufregendes, nachdem die Chinesen das schon vor 4 oder 5 Tausend Jahren mit ihren Rechenbrettern getan haben. Rechnen ist eine Hirnfunktion und man kann sie mit minimal zwei Fingern “nachbauen”, wenn es erlaubt ist, ein Register zu Hilfe zu nehmen.

    Und wenn ihr mir so weit folgt, dann könnt ihr auch ermessen, was für ein theologischer Irrfug der an das “nachbauen” angeschlossene Satz ist, der hier so grandios eingeschlagen hat:

    Die Unternehmungen des “Re-Engeneering” der Gehirnfunktionen in der Hoffnung, dass so etwas wie Bewusstsein/Intelligenz dabei herauskommt, erinnern ein wenig an den Cargo-Kult von Eingeborenen

    Der “Cargo-Kult” ist eine (mythisch begründete) Simulation, aber Rechenapparate zu bauen – die außerdem noch klassifizieren und auf der Basis von Klassifikationen Ordnungsbeziehungen herstellen können – sind keine Simulationen. Es sind in maschinelle Abläufe übersetzte, tat-sächliche Denkarbeiten und Denkleistungen, wobei es hier keine Rolle spielt, daß auch Tauben diese Leistungen erbringen, wenngleich in weit weniger brauchbarem Umfang, und ein Mensch, der mit diesen Apparaten arbeitet, der macht sie zu Außenstellen seiner Denktätigkeit und -arbeit, dazu muß er sich keinen Stecker ins Hirn pflanzen.
    Freilich, daß dieser Mensch begreift – und infolgedessen versteht – was er da tut und leistet, wäre in dies instrumentelle Verhältnis allenfalls dann einzuschließen, wenn diese Arbeit ihr eigener Gegenstand wäre, oder mit dem traditionellen Wort dafür: Reflexion.

    “Reflexion” wäre das Interface zum Anschluß an das, was ich zur “sensomotorischen Phase” geschrieben habe, aber jetzt habe ich erstmal noch was zu arbeiten.

    1. Ich weiß grad nicht, inwieweit ich heute zur Fortsetzung komme, die mir einige Darstellungsprobleme macht.
      Deshalb notiere ich ernstmal das nackte Resultat:

      Die sogenannte “Objektpermanenz”, gemäß Piaget das Produkt der “sensomotorischen Stufe” der kognitiven Entwicklung eines Individuums, ist die erste Formgestalt eines für dies Individuum – das Kind – selbst greifbaren Bewußtseins, und damit dessen allgemeinster Inhalt.
      Wie?
      Tatsächlich völlig einfach: Temporal-spatial adressierte sensomotorische Vorstellungsgehalte werden in ihre Gegenstände reflektiert, anhand ihrer koordiniert, und in dieser koordinierten Gestalt zurück reflektiert in jene Vorstellungsgehalte.
      Die Wahrnehmung wird auf diesem Wege dinglich, und das heißt in erster Instanz: Das Kind wird sich selbst zum Ding und reflektiert dies Dasein für sich selbst in seine Wahrnehmungs und Vorstellungsgegenstände.
      Das ist Bewußsein, bzw. mit Marx “bewußtes Sein”, und es ist alles was es darüber zu wissen gibt. Alles weitere davon und dazu ist Formgestalt des tätigen Daseins eines Subjektes.

      Der Kardinalfehler aller Kognitionswissenschaftler sei auch noch benannt, wenngleich mit dem Vorbehalt, daß ich nicht konkret weiß, wovon ich rede, weil ich kein Akademiker war und schon seit ca. 15 Jahren auch keine Verbindung mehr zum akademischen Betrieb habe. Dennoch:
      Der Kardinalfehler ist, daß sie alle eine “Emergenz” von Bewußtsein bzw. “Intelligenz”, Denkvermögen etc. entweder unterstellen oder zu konstruieren suchen, und “Emergenz” ist abermals ein theologisches Konstrukt.
      Warum tun sie das, praktisch gefasst?
      Weil sie sich andernfalls der Konsequenz stellen müßten, daß “lebendig sein” vom ersten naturhistorischen oder systemtheoretischen Anfang an identisch mit “Subjektsein” ist.
      Mit der weiteren Konsequenz, daß das Konstrukt einer “unabhängig vom Bewußtsein existierenden Realität” ein Konstrukt Gottes ist. There is no such thing. Das einzige “Ding”, das rein metaphorisch das Attribut “unabhängig vom Bewußtsein” tragen könnte, ist die Gesamtheit der Biosphäre, die ist ein vom Rest der physikalischen Welt thermodynamisch geschiedenes Ding.

      Den letzten Abschnitt füge ich hier nur an, das Thema des ursprünglich geplanten Postings war bescheidener.

      1. Eines der Darstellungsprobleme, die ich gewälzt habe, war, ob und inwieweit ich auskomme, ohne den dem ganzen Subsch faktisch zugrundeliegenden Begriff des Bedürfnisses klar zu stellen und zu verteidigen.
        Das geht nicht wirklich, und das macht auch die Schwäche des obigen Rohtextes aus.

        Also einfach angefügt:
        Entgegen dem landläufigen Wortgebrauch ist ein “Bedürfnis”, das ein bürgerlicher Knecht oder Sklave zu “verspüren” glaubt, ihm nicht eigen. Was ihm eigen ist, heißt korrekt Begierde.
        Die herrschaftliche Sprache hat den Subjekten ihre Begierden moralisch / pejorativ ausgetrieben und durch “Bedürfnisse” ersetzt, welche dinglich in der Hand der Herrschaften liegen. Denn Bedürfnisse sind Dinge, keine “Empfindung” oder Zustand einer “Psyche”.
        Aber was ein Ding zum Bedürfnis werden läßt, und damit eine Begierde dinglich, ist die Aneignung durch ein Subjekt. Deshalb ist die Vorstellung einer unabhängig vom Bewußtsein existierenden Dinglichkeit / Realität so theologisch.

        Was also in der sensomotorischen Phase der Entwicklung eines kindlichen Geistes in die “Objektpermanenz” mündet, die eigentlich “Subjektpermanenz” ist, statt hat, ist etwas, das angeblich Hegel die “zirkulierende Bewegung der Begierde” genannt hat (ich selbst hab es bei ihm nicht gefunden), nämlich die mental mindestens doppelte Bewegung zwischen Hingabe an den Gegenstand der Begierde und Aneignung desselben, die einem Ergreifen (und / oder fressen) voraus geht. Das Ergreifen bzw. Fressen macht den Gegenstand der Begierde zum Ding. Es gibt keine Dinge von anderer Art und Herkunft, eine rein theoretische Hingabe und Aneignung kann daran nichts ändern, gelle?

  20. Ob eine KI für die Beurteilung des Wahrheitsgehalts von VTheorien geeignet ist, werden wir sicher nicht duch Microsoft erfahren: Wäre sie es, würde sie sofort wieder abgeschaltet werden, da die bekanntesten Verschwörungen alle vom “Deepstate” erdacht sind:
    – Die RAF hat Herrhausen ermordet.
    – Diana wurde Opfer eines betrunkenen Chauffeurs und eines Motorrad-Paparazzo.
    – NSU Komplex.
    – Trump führt zum Weltkrieg.
    – Corona Pandemie.
    – Russland will die Ukraine erobern.
    Fast alle Anderen hat Matthias Bröckers ja schon genannt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert