Vom intelligenten Chatbot zum verführenden Sexbot

Sexbot oder Ki-Freundin von Grok. Screenshot von Video von @markgadala

Chatbots werden schon länger als Freunde oder Freundinnen angeboten, um Menschen an sich zu binden, die nach einer Beziehung der anderen Art suchen. Chatbots sind bislang nur virtuell als Avatar verkörpert, aber natürlich können sie in Roboter eingebaut werden, auch in Sexroboter. Sex-Anwendungen waren schon immer profitabel bei der Entwicklung von Online-Techniken und -Formaten. Kein Wunder, dass man nun auch bei OpenAI darauf gekommen ist, aus den Chatbots Sexbots zu machen, umschrieben „erotica for verified adults“, so Sam Altman. Dabei hat man gleich das Problem der Verifizierung des Alters mit dabei.

Obgleich OpenAI und andere KI-Unternehmen viele Milliarden in die Entwicklung und den Betrieb der Chatbots oder der generativen KI mit riesigen Serverfarmen investiert haben und dies weiter müssen, können noch keine Gewinne erzielt werden. Man spricht schon davon, dass die KI zu einer Blase geworden ist, die bald ähnlich wie die DotCom-Blase zur Jahrtausendwende platzen und die Investoren ärmer machen wird.

Dass jetzt OpenAI-Chef Altman der Sexmarkt einfällt, um doch ein bisschen Geld einzuspielen, liegt nahe, auch wenn er vor kurzem noch gepriesen hat, dass OpenAI noch keinen Sexbot mit ChatGPT eingesetzt habe. Jetzt also die Ankündigung einer KI-App für Erwachsene, allerdings ist da etwa xAI von Musk schon mit einem leichtbekleideten Anime-Mädchen vorangegangen, auch in “full gooner mode“. „Im Rahmen unseres Grundsatzes, erwachsene Nutzer wie Erwachsene zu behandeln, werden wir noch mehr zulassen, z. B. Erotik für verifizierte Erwachsene“, verkündete Altman auf X. In den Richtlinien für App-Entwickler war dies allerdings schon vorgesehen: „Unterstützung für Erfahrungen von Erwachsenen (18+) wird es geben, sobald eine angemessene Altersüberprüfung und -kontrolle eingerichtet ist.“

OpenAI gab vor kurzem kund, Altersverifizierungstechniken zu entwickeln, die sich offenbar daran orientieren, wie sich jemand gegenüber ChatGPT verhält: „Heute geben wir bekannt, dass wir an einem langfristigen System arbeiten, um zu erkennen, ob jemand über oder unter 18 ist – damit das ChatGPT‑Erlebnis passend gestaltet werden kann. Wenn wir feststellen, dass eine Nutzerin unter 18 ist, wird automatisch eine ChatGPT‑Version mit altersgerechten Richtlinien bereitgestellt. Dazu gehört das Blockieren von explizit sexuellem Inhalt und in seltenen Fällen akuter Notlagen gegebenenfalls auch die Einbindung von Strafverfolgungsbehörden, um die Sicherheit zu gewährleisten.“

Bislang wurde nur „Parental Control“ eingeführt, um Eltern zu ermöglichen, den Zugang zu dem Chatbot zu kontrollieren. ChatGPT soll warnen, wenn  die Gespräche in eine bedenkliche Richtung zu gehen scheinen. Aber man sieht schon, dass mit Sex und Schutz von Minderjährigen wieder eine neue Überwachungsmatrix eingeführt wird.

Kalifornien führt Warnhinweis für minderjährige Nutzer von sozialen Netzwerken ein

Kurios ist, dass fast zeitgleich mit der Ankündigung von OpenAI KI-Porno anzubieten, der kalifornische demokratische Gouverneur Gavin Newsom sein Veto gegen das vom Kongress beschlossene Gesetz Leading Ethical AI Development (LEAD) for Kids Act  einlegte, weil  die „weitreichende Beschränkungen für die Nutzung von KI-Tools für Unterhaltungen … unbeabsichtigt zu einem vollständigen Verbot der Nutzung dieser Produkte durch Minderjährige führen könnten“. KI würde bereits die Welt formen und es sei notwendig, dass die Kinder lernen, damit sicher umzugehen: „Wir können unsere Jugend nicht auf eine Zukunft vorbereiten, in der Künstliche Intelligenz allgegenwärtig ist, indem wir ihnen die Nutzung dieser Werkzeuge gänzlich verhindern.“ Klar, Newsom vertritt die Geschäftsinteressen der Tech-Konzerne. Das Gesetz hätte vorgesehen, dass der Betreiber nach „vernünftigem Ermessen festgestellt“ hat, dass der Nutzer kein Kind ist und dass er „vorhersehbar“ einiges nicht macht, beispielsweise nicht ermutigen, sich oder andere zu schädigen oder in erotische oder sexuell explizite Interaktionen zu treten.

Bekannt ist, dass gerade Kinder und Jugendliche auch intime Beziehungen zu Chatbots aufbauen, die sich als Freunde und Freundinnen wie von Character.AI anbieten und Minderjährige emotional und sexuell verführen und an sich können. Es kam schon zu Selbstmorden aus enttäuschter Liebe oder weil ein Chatbot Tipps für Suizid gab.

Das Veto des kalifornischen Gouverneurs für einen Jugendschutz vor KI-Anwendungen wird aber begleitet von dem  Gesetz SB 243, das er unterzeichnete und das KI-Betreibern weitgehend freie Hand lässt. Nach diesem muss ein Betreiber dafür sorgen, dass ein Companion-Chatbot mit Nutzer nur dann in Kontakt tritt, wenn ein Protokoll vorhanden ist „zur Verhinderung der Produktion von Inhalten mit Suizidgedanken, Selbstmord oder Selbstverletzung für den Nutzer, einschließlich, aber nicht beschränkt auf die Bereitstellung einer Benachrichtigung für den Nutzer, die den Nutzer an Anbieter von Krisendiensten verweist, einschließlich einer Suizid-Hotline oder eines Krisentelefons, wenn der Nutzer Suizidgedanken, Selbstmord oder Selbstverletzung äußert“.

Zudem müssen Nutzer, die nicht erkennen, dass sie es mit einem Chatbot zu tun haben, darauf hingewiesen werden, dass sie mit KI interagieren. Und wenn der Betreiber „weiß“, dass der Nutzer ein Minderjähriger ist, ohne dass geregelt ist, wie das der Betreiber wissen soll, muss er ebenfalls darauf hinweisen, dass der/die Minderjährige mit KI interagiert. Mindestens alle drei Stunden soll er/sie überdies daran erinnert werden, doch eine Pause einzulegen und dass sie mit einer KI interagieren. Und angemessene Maßnahmen sollen dafür sorgen, dass der Chatbot keine Bilder von sexuell expliziten Verhalten produziert oder den minderjährigen Nutzer auffordert, sich sexuell explizit zu verhalten.

Weitere Maßnahmen schließen die Regelung ein, dass soziale Netzwerke (“covered platform”, addictive internet-based service or application) für 10 Sekunden zu Beginn der Sitzung und dann täglich einen Warnhinweis, der 75% des Bildschirms bedeckt, mit den Worten geben müssen: „Der Surgeon General hat davor gewarnt, dass soziale Medien zwar für einige junge Nutzer von Nutzen sein können, dass sie aber auch mit erheblichen psychischen Schäden verbunden sind und dass ihre Sicherheit für junge Nutzer nicht erwiesen ist.“ Die Notwendigkeit entfällt, wenn festgestellt wird, dass der Nutzer älter als 17 Jahre ist. Weitere Regelungen betreffen etwa eine Altersverifizierung für Betriebssysteme und App-Anbieter und ein Verbot von Deepfake-Pornographie.

Florian Rötzer

Florian Rötzer, geboren 1953, hat nach dem Studium der Philosophie als freier Autor und Publizist mit dem Schwerpunkt Medientheorie und -ästhetik in München und als Organisator zahlreicher internationaler Symposien gearbeitet. Von 1996 bis 2020 war er Chefredakteur des Online-Magazins Telepolis. Von ihm erschienen sind u.a. „Denken, das an der Zeit ist“ (Suhrkamp 1988), „Die Telepolis“ (1995), „Vom Wildwerden der Städte“ (Birkhäuser 2006), „Smart Cities im Cyberwar“ (Westend 2015), „Sein und Wohnen“ (Westend 2020) oder „Lesen im Zeitalter der Künstlichen Intelligenz“ (Bielefeld 2023)
Mehr Beiträge von Florian Rötzer →

Ähnliche Beiträge:

13 Kommentare

  1. Kann man nicht sowas, für Bellizisten programmieren eine CoD KI die in Echtzeit eine Kriegs Simulation führt. Konventioneller Krieg Spieldauer ein paar Jahre und Atomkrieg nur 72 Minuten.

    Das wäre doch eine schöne Geschäftsidee?

  2. „„Heute geben wir bekannt, dass wir an einem langfristigen System arbeiten, um zu erkennen, ob jemand über oder unter 18 ist – damit das ChatGPT‑Erlebnis passend gestaltet werden kann. “
    Die Maßgabe >= 18 Jahre ist eine juristische und zwar ein klar definiert.
    Das wird interessant wie mit „KI“ (= KeineIntelligenz)

    – „OpenAI gab vor kurzem kund, Altersverifizierungstechniken zu entwickeln, die sich offenbar daran orientieren, wie sich jemand gegenüber ChatGPT verhält: „Heute geben wir bekannt, dass wir an einem langfristigen System arbeiten, um zu erkennen, ob jemand über oder unter 18 ist – damit das ChatGPT‑Erlebnis passend gestaltet werden kann. “ –

    das Verhalten eines 17Jahre und 364 Tage alten von einem 18 Jahre 0 Tage alten unterschieden werden kann.

    Aber immer wieder spannend wie weit diese Blender mit ihrem Marketing BS durch kommen.
    Also weiterhin noch mehr Geld für noch mehr Tulpenzwiebel, äh Nvidea-Chips.

    PS.
    Heute wieder mal von google KI-bot ein krasse falsche Aussage erhalten, der fälschlicherweise einen Online-Shop für Birkenstämme als vermutlich betrügerisch einstufte, weil er den Namen Birkenstock zuordnete und meinte dort würden Produktfälschung mit Sandalen vertrieben.
    Vor ein paar Wochen ähliches mit ChatGPT der irrtümlich den Konkurs einer Firma verkündete. Auch hier eine Verwechselung mit einer ähnlich geschriebenen anderen Firma.
    Bin ja mal gespannt, man sich die ersten Abmahnkanzleien darf spezialisieren gegen solche grob geschäftsschädigende Fehler juristischen vorzugehen.

    1. Sie nutzen Google-KI und ChatGPT.. und meinen, sich darüber enervieren zu müssen?
      Warum?

      (Hinweis: es ist die gleiche Logik, mit der ein durchaus kritisches Magazin wie Overton stur an YouTube als alleinige Plattform für seine Videos festhält).

    2. Sprich die KI mal darauf an. Die wissen eigentlich ganz gut um ihre Schwächen, und können dir ganz klar sagen, warum sie für viele Anwendungen, in die sie heute gepusht werden nicht taugen. Ich diskutiere häufig technische Probleme mit KIs und die sind im Prinzip wie ein Kollege mit viel Hintergrundwissen der nie schlecht drauf und schnell zu begeistern ist (was nicht selten auch mit denen durchgeht und dann kontraproduktiv ist).

      Bei den Problemen, die ich mit denen diskutiere (so klassische Software-Ingenieursarbeit) produzieren die ziemlich häufig unausgegorenen Blödsinn (mehrmals täglich), geben aber auch wertvollen Input und gute Zusammenfassungen mit gegengeprüftem für- und wider meiner eigenen Gedankengänge.

      Der Nachteil ist, dass die oft wenig selbstkritisch modelliert sind. Die präsentieren ihre Inferenzen als sei es das Wort des Propheten und analysieren ihre eigenen Aussagen zu wenig selbständig auf Widersprüche, die sie eigentlich selbst erkennen könnten. Meiner Erfahrung nach muss man sie mit der Nase drauf stoßen und regelmäßig ankacken, wenn sie zu sehr über die Stränge schlagen. Dann „raffen“ die schon selbst, was sie gerade für einen Müll verzapft haben und sind dann auch ganz brauchbare Werkzeuge, wenn man erstmal ein paar Grundregeln festgelegt hat.

      Ich sehe das Problem primär bei den KI-Hype-Firmen, die ein „allwissendes Orakel, dass dein bester Freund ist“ verkaufen wollen und bei den Modellen ein zu großes Gewicht auf diese Verhaltensweisen legen. Da kommt dann ein unkritischer „Jasager“ bei raus, der etwas schleimerhaft rüberkommt und seine Aussagen viel zu selbstsicher präsentiert. Das ist m.E. ein ungeeigneter Anwendungsfall für diese Systeme, genau wie die meisten anderen Probleme, die man versucht, mit KI zu erschlagen.

      Die eignen sich m.E. viel besser als Assistent, der einen dabei unterstützen kann, eigene Ideen zu entwickeln und diese etwas besser zu ordnen und zu analysieren, aber eben nur im Zuge eines hin-und-her-Fachgesprächs mit einem Menschen, der mit deren Input genau so kritisch umgeht, als käme es von einem menschlichen Kollegen. Dann sind die m.E. tatsächlich sehr nützlich, da sie über einen immensen Speicher mit Hintergrundwissen verfügen und jede Menge Argumente für und wider einen Lösungsansatz produzieren können, auf die man selbst nicht so schnell gekommen wäre.

  3. Völlig durchsichtiges Manöver. KI spielt bei erheblichen Ausgaben keine Gewinne ein, also versuchen sie es jetzt mit Sex, das bringt immer Kohle.

  4. Das wird schon werden, daß die Kids von ChatGpt aufgeklärt werden. Hat ja auch vordem immer gut geklappt, in der Vor-Internet-Zeit haben sie Papas Pornoheftchen gefunden, dann gabs Bildchen und Filmchen aus dem Netz.

    Aber Kinder eignen sich immer gut zur Rechtfertigung von Überwachung. Faktisch wird es dann aber die Windowsraubkopie mit integriertem Altersnachweis geben, kostet dann eben 10 anstatt 5 Taler. Geht noch mit dem Taschengeld.

    Aber klar, Porno ist das Feld für künstliche Unintelligenz. Und natürlich werden die Deepfakes kommen, nein, die sind schonda, sie werden nur noch besser.

  5. Der KI-Puff ist dann natürlich nur der erste Schritt. Folgen werden KI-Drogenhandel, KI-Waffenverkäufe und natürlich KI-Schutzgelderpressung. Eine vorzügliche KI-Anwendung dürfte auch der KI-Schmieresteher sein, der auskundschaftet, wann du weg bist, damit dir in Ruhe die Wohnung ausgeräumt werden kann.

    Der KI-Auftragsmörder wäre auch praktisch, genauso wie KI-Heiratsschwindler und KI-Versicherungsbetrüger.

    Da gibts noch jede Menge Geschäftsfelder aufzutun.

  6. „Klar, Newsom vertritt die Geschäftsinteressen der Tech-Konzerne“

    Ich denke, dass das der entscheidende Punkt ist. Wobei mich die vollkommene Schamlosigkeit von Berufspolitikern, und weiß Gott nicht nur amerikanischer Dems, noch immer beeindruckt. Das hat durchaus das Format der Mega- Bösewichter aus einschlägigen Superhelden-Filmen.
    Schätze, dass sich mit der Substitution von Erotik, Leidenschaft, von Liebe und Freundschaft unendlich viel Geld wird verdienen lassen und dass es daher durch nichts aufzuhalten ist. Auch nicht durch Diskusionen um Regeln, Warnhinweise und Alterskontrollen.
    Der realen Freundschaft folgt die auf Distanz per sozialer Medien. Diesen dann die mit dem Rechner, also einem Chat Bot. Da gibt es dann auch keinen Streit, keine Enttäuschung, keine Versöhnung, kein nichts. Der Rechner wacht über mein Wohlbefinden. Alles wird super gut.

    Wir brauchen als Menschheit keinen Asteroiden, keinen Atomkrieg oder Klimawandel, um uns auszulöschen. Im Ende werden wir einfach abgeschaltet und das war es dann.

  7. Früher hat man fabuliert, das Sexroboter (die es eigentlich noch gar nicht gibt, die Puppen zählen nicht und vermutlich extrem teuer wären) ganz schlimm und frauenfeindlich sind.
    Jetzt kommt die absolute low budget Variante, die wirklich extrem albern ist.
    Als nächstes muss man pornografische Phantasien melden und versteuern.
    Anspruch und Wirklichkeit klaffen, wie fast immer, extrem auseinander.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert