Maschinen an die Macht

Computergehirn
Quelle: Pixabay

Wie Deregulierung, Drohnen und Digital-Oligarchen das 21. Jahrhundert entgleisen lassen.

Stellen Sie sich eine Szene vor, die in keinem Science-Fiction-Film mehr spielt, sondern auf realen Kriegsfeldern unserer Zeit:

Ein mechanischer Zwei-Meter-Roboter mit humanoider Silhouette marschiert durch ein zerbombtes Industrieviertel. Er erkennt Bewegungen hinter einer Mauer, scannt mit einem internen Wärmebildsensor den Raum, errechnet über ein neuronales Modul eine Bedrohungswahrscheinlichkeit von 78 Prozent und eröffnet das Feuer. Ohne Funkkontakt. Ohne Befehl. Ohne menschliches Zögern.

Noch ist dieses Bild Fiktion. Aber nicht mehr lange.

Denn die technologischen, politischen und ökonomischen Voraussetzungen, um solche Szenen Wirklichkeit werden zu lassen, sind längst geschaffen. Künstliche Intelligenz, Robotik und militärische Autonomisierung verschmelzen mit einer neuen Form der Macht, einer Macht, die sich nicht mehr über Staaten oder Verfassungen legitimiert, sondern über Serverfarmen, Satellitenkonstellationen und Deregulierungsdekrete.

Drei Entwicklungen greifen dabei ineinander wie Zahnräder eines Systems, das sich dem menschlichen Einfluss zunehmend entzieht:

  1. Die digitale Infrastruktur von Elon Musk, insbesondere das Satellitennetzwerk Starlink und der humanoide Tesla-Roboter „Optimus“, bildet bereits heute die Rückgratstruktur für militärische Kommunikation und Automatisierung in Konfliktzonen wie der Ukraine.
  2. Autonome Waffensysteme, vor allem Drohnen mit KI-Zielerkennung und Entscheidungsmodulen, sind nicht mehr Prototypen, sondern Realität auf dem Schlachtfeld, oft unbeachtet, oft unkontrolliert.
  3. Die politische Deregulierung von KI durch Donald Trump, konkretisiert in einer Executive Order vom Januar 2025, könnte ein regulatorisches Vakuum erzeugen, in dem Technologien ohne moralische Leitplanken global ausgerollt werden.

Was das bedeutet? Dass wir als Gesellschaft vor einem technologischen Umbruch stehen, der nicht nur unsere Arbeitswelt oder sozialen Medien betrifft, sondern die Grundfragen des Menschseins: Wer entscheidet über Leben und Tod? Wer trägt Verantwortung, wenn Algorithmen irren? Und was geschieht, wenn die Werkzeuge zur Macht bei jenen liegen, die sich keiner demokratischen Kontrolle mehr unterwerfen?

Dieser Artikel untersucht diese drei Entwicklungslinien nicht in ihrer theoretischen Möglichkeit, sondern in ihrer realen Umsetzung, mit belastbaren Quellen, technischen Beispielen und einer klaren Absicht: zu warnen, bevor es zu spät ist.

Denn während in Talkshows noch über Heizungsgesetze diskutiert wird, wird im Verborgenen eine neue Realität kodiert und sie kennt keine Rücktaste.

„Die Zukunft der Kriegsführung wird nicht vorbereitet – sie wird längst geprobt.“

Die digitale Kriegsmaschine – Wie Starlink und Musks Roboter die Front verändern

Wenn man heute von Elon Musk spricht, denken viele an Teslas, Raketenstarts oder meinetwegen an ein paar wirre Tweets. Was in der breiten Öffentlichkeit jedoch kaum ankommt: Musk ist längst ein Akteur im globalen Kriegsgeschehen, nicht metaphorisch, sondern ganz real. Und das nicht als Politiker oder General, sondern als Infrastrukturlieferant. Mit seinem Satellitennetzwerk Starlink hat er sich unbemerkt in eine Schlüsselposition katapultiert, die vormals nur Staaten vorbehalten war. Ohne Starlink wäre die ukrainische Armee digital weitgehend blind und das, obwohl offiziell weder die USA noch die NATO direkt im Einsatz stehen.

Starlink funktioniert im Kern wie ein digitales Nervensystem. Weltweit schwirren mittlerweile über 5.500 Satelliten im Orbit, Tendenz steigend. Musk will auf über 40.000 aufrüsten. Jeder dieser Satelliten ist Teil eines Netzes, das Bodenstationen mit Internet versorgt, unabhängig von Kabeln, Servern oder nationalen Telekom-Infrastrukturen. In der Ukraine wird Starlink seit 2022 militärisch eingesetzt. Zunächst hieß es noch, man wolle den zivilen Bereich stabilisieren. Doch längst dient das System zur Steuerung von Drohnen, zur Echtzeit-Kommunikation zwischen Front und Kommando und zur Koordination von Angriffen. Im Grunde ist Starlink das Rückgrat der digitalen Kriegsführung Kiews. Und Musk? Hat die Kontrolle über das Netz, technisch wie politisch.

Im Februar 2023 blockierte er erstmals bestimmte militärische Anfragen aus Kiew, etwa Angriffe auf russische Kriegsschiffe via Starlink-Daten. Das mag aus Sicht der Deeskalation vernünftig klingen, zeigt aber vor allem eines: Ein einzelner Unternehmer kann heute entscheiden, welche Armee kommunizieren darf und welche nicht. Man stelle sich vor, ein Telekommunikationsunternehmen hätte sich im Zweiten Weltkrieg entschieden, den Funkverkehr der Alliierten aus moralischen Gründen zu unterbinden. Undenkbar. Heute: Realität.

Parallel dazu läuft bei Tesla ein Projekt, das noch größere Fragen aufwirft: der humanoide Roboter „Optimus“. Noch wird er als smarter Helfer für Haushalt und Produktion vermarktet. Musk zeigte ihn auf der Bühne, wie er eine Kiste trägt, Schrauben sortiert, ein Ei in der Küche balanciert, der perfekte PR-Stunt. Doch was dieser 1,73 Meter große Roboter wirklich ist: eine Plattform. Wie ein Smartphone, auf das man jede App laden kann, nur mit Beinen, Greifhänden und 200 Newtonmeter Armkraft. Das Unternehmen verspricht, Optimus bald in Serie zu produzieren. Zehntausende Einheiten pro Jahr.

Offiziell soll er Pakete sortieren oder Senioren helfen. Aber wer die Technik kennt, weiß: Optimus kann auch laufen, balancieren, Gegenstände erkennen, Entscheidungen treffen. All das basiert auf neuronalen Netzen, auf maschinellem Lernen und auf Echtzeitdaten, die von Tausenden Kameras und Sensoren verarbeitet werden. Und sobald sich so ein System in einer Fabrik bewährt hat, warum nicht auch in einem Tunnel in Bachmut? Die Technologie macht keinen Unterschied zwischen Hausarbeit und Häuserkampf.

Entscheidend ist, was man der Software beibringt. Ein Reinigungsroboter erkennt, was schmutzig ist. Ein Kampfroboter erkennt, was gefährlich ist. Und wenn die Entscheidung, was gefährlich ist, einem lernenden System überlassen wird, dann sind wir nicht mehr weit davon entfernt, dass Maschinen eigenständig töten.

Man mag einwenden, das sei weit hergeholt. Noch sei Optimus nicht einsatzfähig. Noch sei das alles Zukunftsmusik. Doch der Punkt ist: In einem deregulierten Umfeld und genau das wird mit Trumps Politik (dazu später) jetzt massiv gefördert, dauert es eben nicht mehr 20 Jahre bis zur Marktreife, sondern vielleicht drei. Und in diesen drei Jahren testet ein Staat wie die Ukraine bereits KI-gesteuerte Drohnen im Echtbetrieb. Das ist kein Argument gegen die Ukraine. Es ist ein Argument gegen die Naivität, mit der wir technologische Realitäten betrachten.

Optimus muss nicht bewaffnet sein, um gefährlich zu werden. Es reicht, wenn er als autonomes System agiert, also ohne permanente menschliche Kontrolle. Schon die Frage, ob ein Roboter einen Soldaten aus dem Feuer ziehen oder ihn dem Feind ausliefern soll, kann über Leben und Tod entscheiden. Und niemand haftet, wenn etwas schiefläuft. Kein Offizier, kein Programmierer, kein Server.

Noch gravierender ist jedoch die Kombination der Systeme: Starlink bietet die digitale Infrastruktur, Optimus die physische Plattform. Dazu kommen KI-Modelle wie GPT-5 oder spezielle militärische Large Language Models (LLMs), die Entscheidungsschemata trainieren, aus Tausenden Szenarien und realen Kriegsdaten. Die Datenmengen, die Musk mit Optimus gewinnen will, könnten wiederum in das Training weiterer KI-Modelle einfließen. Und diese Modelle können dann, das ist keine Spekulation, sondern Stand der Entwicklung, Zielidentifikationen vornehmen, Risikoanalysen berechnen und operative Vorschläge ausgeben. In Echtzeit. Autonom.

Man muss nicht paranoid sein, um zu erkennen, was hier entsteht: Eine digital-militärische Maschinerie, die in Teilen bereits funktioniert und deren Vollautomatisierung längst angestoßen ist. Nicht durch Parlamente oder Generäle, sondern durch Tech-Giganten und Investoren.

Das Problem ist nicht, dass diese Technologie existiert. Das Problem ist, dass sie sich ihrer Kontrolle entzieht. Wenn ein Satellitennetzwerk wie Starlink über Kriegsverläufe mitentscheidet, wenn ein humanoider Roboter jederzeit umprogrammiert werden kann, wenn Algorithmen selbstständig Ziele priorisieren, dann ist das kein Fortschritt. Es ist ein Kipppunkt.

Die unsichtbare Waffe – Autonome Systeme und KI im Krieg: Testlauf Ukraine

Was früher nur auf Militärmessen gezeigt oder in Pentagon-Papieren durchgerechnet wurde, wird heute in Echtzeit getestet, auf ukrainischem Boden, oft unter völligem Ausschluss der Öffentlichkeit. Nicht nur Panzer, Raketen und westliche Waffentechnik fließen unablässig ins Kriegsgebiet, sondern auch eine neue Generation automatisierter Systeme: Drohnen, Roboter, Luftabwehrmodule, teils ausgestattet mit lernenden Algorithmen, teils vollständig autonom.

„Autonom“ heißt in diesem Zusammenhang nicht nur: ohne Fernbedienung. Es heißt: Ein System entscheidet selbstständig, ob etwas als Ziel erkannt wird, ob Gefahr besteht, ob es feuert, oder eben nicht.

Dass genau solche Technologien im Einsatz sind, bestätigen nicht nur Fachjournalisten und Analysten, sondern inzwischen auch westliche Rüstungspartner. Die Ukraine ist längst zu einem Testfeld für KI-gestützte Waffentechnik geworden. Was sich dort bewährt, wird später exportiert, entweder militärisch, wirtschaftlich oder politisch.

Ein besonders bekannter Fall ist der sogenannte „Saker Scout“, eine Drohne, die unter anderem in Partnerschaft mit britischen Entwicklern konzipiert wurde und mittlerweile mit einem KI-Modul ausgestattet ist, das mittels Deep Learning Bodenziele erkennen kann. Das System analysiert Infrarot- und Bilddaten aus der Luft, vergleicht sie mit Trainingsdaten aus früheren Einsätzen und kategorisiert, ob es sich um feindliche Stellungen, Fahrzeuge oder zivile Infrastruktur handelt. Die Trefferquote ist erschreckend hoch und die Fehlertoleranz besorgniserregend gering.

Sobald ein Objekt als potenzielles Ziel eingestuft wurde, kann die Drohne es entweder markieren, zur nachfolgenden Vernichtung durch Artillerie, oder direkt angreifen, wenn sie mit Sprengstoff bestückt ist. Menschliche Rückfrage? Nicht zwingend. Manche Systeme arbeiten in einem sogenannten „Fire-and-Forget“-Modus: Sie bekommen den groben Suchbereich vorgegeben, den Rest erledigt der Algorithmus.

Auch am Boden kommen erste autonome Systeme zum Einsatz. Das britische Verteidigungsministerium bestätigte bereits 2024 die Lieferung von „SkyKnight“-Systemen an die Ukraine, mobile Luftabwehrmodule mit KI-gestützter Zielerfassung. Das Prinzip: Ein 360°-Sensor-Radar analysiert die Flugbahn ankommender Objekte, die Software entscheidet, ob es sich um eine feindliche Drohne, einen Vogel oder einen eigenen Helikopter handelt und feuert im Bruchteil einer Sekunde. Gekoppelt ist das Ganze mit einem neuronalen Entscheidungsnetzwerk, das mit simulierten Gefechtsszenarien trainiert wurde.

Ähnliche Technologien wurden bereits in Israel mit der berühmten „Harop“-Drohne getestet, einer sogenannten „Loitering Munition“, also einer „herumlungernden Munition“, die bis zu 6 Stunden über einem Zielgebiet kreisen kann, bevor sie sich auf ein Ziel stürzt und es zerstört. Inzwischen arbeiten westliche und osteuropäische Rüstungsfirmen an vergleichbaren Konzepten. Die Steuerung wird dabei zunehmend automatisiert. Nicht mehr der Mensch entscheidet, wann der Angriff beginnt, sondern der Trainingsdatensatz.

Ein weiteres beunruhigendes Beispiel: Thermit-Drohnen, die mit brennbarem Metall gefüllt sind und gezielt gegnerische Stellungen in Brand setzen. Diese Drohnen, teilweise mit autonomen Zielalgorithmen ausgestattet, können ganze Schützengräben oder Versorgungslinien lahmlegen. Die thermische Zerstörung erfolgt großflächig und ist nur schwer zu löschen. Sie ist nicht präzise, nicht chirurgisch, sondern psychologisch brutal.

Wissenschaftlich begleitet werden diese Entwicklungen nur noch bedingt. Während Organisationen wie die Campaign to Stop Killer Robots oder das UNIDIR-Institut (UN Institute for Disarmament Research) seit Jahren vor autonomer Kriegsführung warnen, agieren Regierungen, insbesondere unter dem Druck aktueller Konflikte, im Graubereich. Die Ukraine gibt aus nachvollziehbaren Gründen kaum Informationen zu eingesetzten Systemen preis. Hersteller berufen sich auf Geschäftsgeheimnisse. Und westliche Unterstützer? Reden kaum darüber, oder nennen es „Innovation“.

Technisch basiert vieles auf sogenanntem Edge Computing, also Rechenleistung, die direkt im Gerät stattfindet, nicht mehr auf einem zentralen Server. Das macht Systeme schneller, reaktionsfähiger, aber auch weniger kontrollierbar. Ein Autopilot in einem Auto ist leicht nachzuverfolgen. Ein KI-Zielalgorithmus auf einem FPV-Drohnenchip, der in einem Schützengraben 300 km hinter der Front explodiert, ist es nicht.

Erst im Mai 2025 warnte ein Bericht des Centre for a New American Security (CNAS) vor genau dieser Entwicklung. Titel: “The Kill Chain Is Breaking Free“. Der Bericht analysiert, wie KI-Systeme zunehmend eigene Entscheidungsketten bilden, ohne menschliche Aufsicht. Die Autoren sprechen von einer „Erosion militärischer Verantwortlichkeit“ und „grundsätzlichen Herausforderungen für das Völkerrecht“. Einmal programmiert, sei der moralische Kompass der Maschine auf exakt das begrenzt, was ihr beigebracht wurde.

Und was passiert, wenn die Daten schlecht sind? Wenn das System Zivilisten mit Kombattanten verwechselt? Wenn ein Algorithmus eine Wärmesignatur als Bedrohung klassifiziert, weil ein ähnliches Muster zuvor zu einem Treffer geführt hat?

Verantwortung wird in diesen Fällen zur Blackbox. Niemand weiß, wie genau der Algorithmus zu seiner Entscheidung kam, man kann es im Nachhinein nur rekonstruieren. Wenn überhaupt.

Die Ukraine ist dabei nicht Täterin, sondern Bühne. Das Leid der Bevölkerung, der existentielle Verteidigungskampf, all das wird instrumentalisiert für die Entwicklung und Erprobung von Waffentechnik, die bald auch in anderen Konflikten eingesetzt werden könnte. Die USA, Großbritannien, Israel und private Rüstungskonzerne sehen in diesem Krieg nicht nur ein geopolitisches Projekt, sondern auch eine Möglichkeit zur beschleunigten Marktreife.

Was hier getestet wird, ist nicht weniger als der Übergang von der kontrollierten zur selbstentscheidenden Kriegsmaschine. Und die Folgen sind noch nicht absehbar.

Trumps Deregulierung – KI ohne Sicherheitsgurt

Wenn man heute von der Gefahr durch künstliche Intelligenz spricht, denken viele an Terminator-Fantasien oder an kluge Maschinen, die irgendwann einmal die Welt übernehmen könnten. Was jedoch fast niemand realisiert: Die rechtliche Grundlage, die verhindern soll, dass solche Systeme unkontrolliert zum Einsatz kommen, wird gerade im Eiltempo demontiert, vor allem in den USA. Und einer der wichtigsten Treiber dieser Entwicklung heißt Donald J. Trump.

Am 23. Januar 2025 unterzeichnete Trump, kaum drei Wochen nach Amtsantritt, ein Maßnahmenpaket, das in der Geschichte der US-Regulierung seinesgleichen sucht: die sogenannte „10-to-1 Executive Order“. Der Kern: Für jede neue staatliche Vorschrift müssen zehn bestehende Regelungen gestrichen werden. Das klingt nach Verwaltungsvereinfachung, ist aber in Wahrheit ein Generalangriff auf jede Form von staatlicher Aufsicht, insbesondere im Tech-Sektor.

Im begleitenden Fact Sheet des Weißen Hauses heißt es wörtlich:

„America will lead the world in artificial intelligence. Regulation must not be a brake on freedom and innovation.“
(Quelle: whitehouse.gov, 23.01.2025)

Was wie ein Innovationsversprechen klingt, bedeutet in der Praxis: KI-Systeme können künftig mit deutlich weniger behördlicher Prüfung entwickelt, veröffentlicht und sogar in militärische Kontexte überführt werden, ohne Ethikkommissionen, ohne Risikoanalyse, ohne transparente Standards.

Betroffen ist unter anderem der „Blueprint for an AI Bill of Rights“, ein Regelwerk der US-Regierung aus der Biden-Ära, das sensible KI-Anwendungen mit menschenrechtlichen Leitplanken versehen sollte. Dieses Dokument, bereits nie rechtsverbindlich, wurde von Trumps Beratern sofort als „Wachstumsbremse“ eingestuft. Auch Richtlinien der Defense Innovation Unit, die autonome Systeme im Verteidigungsbereich kritisch begleiten sollte, stehen zur Streichung.

Was das konkret heißt? Dass militärisch nutzbare KI, etwa zur Zielauswahl, Mustererkennung oder Entscheidungsunterstützung, künftig ohne jede Pflicht zur Nachvollziehbarkeit entwickelt werden darf. Und das geschieht nicht im luftleeren Raum. Große Konzerne wie Palantir, Anduril, Lockheed Martin oder auch OpenAI (militärischer Zweig) stehen längst bereit, um sogenannte „predictive targeting modules“ in Drohnensysteme oder Command-and-Control-Plattformen einzubauen.

Technisch gesehen bedeutet das: Sprachmodelle wie GPT-5 (und dessen militärische Varianten) können auf Befehl ganze Einsatzszenarien simulieren, mögliche Ziele priorisieren und auf Basis großer Datensätze taktische Entscheidungen empfehlen, oder sogar direkt in Entscheidungsprozesse eingreifen.

Ein Beispiel: Ein KI-System analysiert die letzten 72 Stunden feindlicher Bewegungen, erkennt Muster in der Verlegung schwerer Artillerie, erstellt eine Wahrscheinlichkeitskarte für den nächsten Angriff und generiert auf dieser Basis einen Vorschlag, welche Koordinaten mit Präzisionswaffen zu beschießen sind. Ohne menschliche Beurteilung, ohne Kontextwissen, nur auf Grundlage mathematischer Gewichtung. Die Entscheidung zum Angriff liegt dann entweder bei einem übermüdeten Kommandeur, oder, in Zukunft, beim System selbst.

Trump selbst äußerte sich zu diesem Thema auf einer Wahlkampfveranstaltung im März 2025 folgendermaßen:

„Wir brauchen keine linken Moralregeln für Maschinen. Wir brauchen Ergebnisse. Amerika darf nicht verlieren, weil Bürokraten Angst vor der Zukunft haben.“

Sein Ziel ist klar: Technologieführerschaft um jeden Preis. Die Risiken? Werden ignoriert. Die ethischen Debatten? Als „linksradikale Panikmache“ abgetan.

Und das ist gefährlich, weil die Kombination aus Deregulierung und militärischem Interesse ein explosives Gemisch ist. Unternehmen, die bislang aufgrund regulatorischer Hürden zögerten, Systeme mit höherem Autonomiegrad auf den Markt zu bringen, sehen sich nun ermutigt. Die moralische Verantwortung wird an den Kunden ausgelagert, oder direkt ins Produkt eingebaut.

Ein interner Report des Center for Humane Technology, der im Februar 2025 geleakt wurde, warnt eindringlich:

„Wenn das regulatorische Sicherheitsnetz verschwindet, entsteht ein globaler Wildwuchs algorithmischer Gewalt. Wer zuerst deployed, gewinnt und wer warnt, verliert Marktanteile.“

Besonders brisant: Diese Entwicklungen passieren zeitgleich mit massiven Investitionen in KI-Infrastruktur, unter anderem durch das sogenannte Stargate-Projekt, ein 500-Milliarden-Dollar-Konsortium aus OpenAI, Oracle und SoftBank, das eine neue, weltumspannende KI-Infrastruktur aufbaut. Ziel: 100.000 H100-GPUs, verteilt über zehn Megazentren, gesteuert durch ein eigenes Quasi-Internet. Eine technische Machtfülle, die jeden nationalen Gesetzgeber vor sich hertreibt.

Noch gibt es internationale Gremien, die sich mit diesen Entwicklungen beschäftigen, wie etwa die UNESCO. Doch deren Einfluss ist begrenzt. Und solange eine Weltmacht wie die USA aktiv dereguliert, werden alle anderen gezwungen, mitzuziehen, oder sich vom globalen Wettbewerb abzukoppeln.

Am Ende steht eine Entwicklung, die vielleicht mit besten Absichten begann, aber nun außer Kontrolle gerät: Maschinen, die selbstständig denken, handeln, töten. Gefördert durch politische Kurzsichtigkeit, ökonomischen Druck und die Bereitschaft, ethische Prinzipien dem Fortschrittsglauben zu opfern.

Ausblick und Warnung – Wenn das System entscheidet und keiner mehr stoppt

Es beginnt nicht mit Explosionen. Es beginnt mit Schnittstellen. Mit einem Satelliten, der Daten überträgt. Mit einer Drohne, die entscheidet, ob ein Objekt als Bedrohung zu klassifizieren ist. Mit einem Roboter, der sich nicht mehr umdreht, wenn jemand schreit.

Was wir in den vergangenen Monaten sehen und in diesem Artikel beschrieben haben, ist kein technischer Fortschritt im klassischen Sinn. Es ist eine Machtverschiebung. Weg vom Menschen. Weg von Verantwortung. Hin zu Maschinen, die mit jeder Entscheidung mehr über uns wissen, mehr über uns lernen und irgendwann entscheiden, was mit uns geschieht.

Diese Entwicklung hat drei Gesichter.

Das erste heißt Elon Musk, oder besser: das, was er repräsentiert. Nicht nur ein Mann mit Satelliten und Robotern, sondern ein Tech-Komplex, der sich vom Primat der Politik emanzipiert hat. Wer heute über Kriegsverläufe entscheiden kann, indem er die Verbindungsdaten filtert oder seinen Dienst abschaltet, der hat mehr Macht als ein Parlament. Und wer gleichzeitig Roboter bauen lässt, die laufen, greifen, handeln, dann aber sagt, es handle sich um Haushaltshilfen, der sagt vielleicht nicht die ganze Wahrheit.

Das zweite Gesicht heißt: autonome Waffen. Was einst mit ferngesteuerten Raketen begann, ist heute ein selbstlernendes System, das auf Basis von Zielbildern, Musterdaten und Rechenmodellen entscheidet, wo geschossen wird. Die Ukraine zeigt uns, wie solche Technik „im Ernstfall“ funktioniert. Und sie zeigt auch, wie still diese Schwelle überschritten wurde. Ohne Debatte. Ohne Mandat. Ohne Plan B.

Das dritte Gesicht ist Donald Trump und das, was seine Politik weltweit auslöst: den Verlust jeder Schranke. Wenn Vorschriften fallen, weil sie „Innovation bremsen“, wenn KI-Forschung keine ethische Aufsicht mehr braucht, wenn riesige Modelle gebaut werden dürfen, die niemand mehr vollständig versteht, dann ist das kein Vorsprung. Das ist Kontrollverlust in Echtzeit.

Was also folgt daraus?

Vielleicht nicht sofort der große Systemzusammenbruch. Vielleicht auch nicht der Marsch der Maschinen. Aber eine permanente Entwertung menschlicher Entscheidung. Eine langsame Erosion von Verantwortung, von Rechtsstaatlichkeit, von Transparenz. Und irgendwann eine neue Normalität: dass nicht mehr gefragt wird, ob ein System töten darf, sondern nur noch, wie zuverlässig es dabei ist.

Das Tragische: Wir haben all das kommen sehen. Wir haben Filme darüber gemacht, Bücher geschrieben, Forschungsprojekte aufgelegt. Doch jetzt, wo es konkret wird, wo Menschen in Kiew via Starlink Drohnen fliegen, in Texas humanoide Roboter in Serie gehen und in Washington der regulatorische Not-Aus entfernt wird, da schauen wir lieber auf Wahlumfragen, auf Fußballspiele, auf die Inflation.

Aber wer jetzt wegsieht, wird später nicht sagen können, er habe es nicht gewusst.

Die gute Nachricht: Noch ist Zeit. Zeit, über KI zu sprechen, nicht nur im Silicon-Valley-Jargon, sondern politisch, rechtlich, ethisch. Zeit, echte Regeln zu formulieren, global, verbindlich, transparent. Zeit, Verantwortung zurückzufordern, von jenen, die sie algorithmisch abgeschoben haben.

Doch diese Zeit wird knapp. Denn Maschinen haben keine Geduld. Sie rechnen einfach weiter.

Schlussappell

Wir leben nicht in einer Dystopie. Noch nicht. Aber wir steuern auf eine zu, wenn wir weiterhin glauben, dass Fortschritt per se gut ist, dass Technik neutral ist, dass Systeme klüger sind als Menschen. Vielleicht ist jetzt der Moment gekommen, nicht mehr nur zu staunen, sondern endlich zu widersprechen. Denn wer schweigt, wenn Maschinen töten lernen, macht sich mitschuldig.

 

Quellennachweise

I. Trumps Deregulierungspolitik

Quelle 1:
White House (Amtssitz des US-Präsidenten)
Titel: Fact Sheet: President Donald J. Trump Launches Massive 10-to-1 Deregulation Initiative
Veröffentlicht am 23. Januar 2025
URL: https://www.whitehouse.gov/fact-sheets/2025/01/fact-sheet-president-donald-j-trump-launches-massive-10-to-1-deregulation-initiative/

Quelle 2:
White House
Titel: Unleashing Prosperity Through Deregulation – Presidential Action Summary
Veröffentlicht am 23. Januar 2025
URL: https://www.whitehouse.gov/presidential-actions/2025/01/unleashing-prosperity-through-deregulation/

II. Autonome Waffensysteme im Ukraine-Krieg

Quelle 3:
Forbes (US-Wirtschaftsmagazin)
Autor: David Hambling
Titel: Ukraine’s AI Drones Seek And Attack Russian Forces Without Human Oversight
Veröffentlicht am 17. Oktober 2023
URL: https://www.forbes.com/sites/davidhambling/2023/10/17/ukraines-ai-drones-seek-and-attack-russian-forces-without-human-oversight/

Quelle 4:
Automated Decision Research (Forschungsplattform für autonome Systeme)
Titel: Saker Scout UAV
Abrufbar seit 2024
URL: https://automatedresearch.org/weapon/saker-scout-uav/

Quelle 5:
UNITED24 Media (offizielles ukrainisches Medienprojekt unter Präsidentschaft von Wolodymyr Selenskyj)
Titel: AI-powered turret that hunts Russian drones: Meet Sky Sentinel – Ukraine’s new air defense
Veröffentlicht am 14. April 2024
URL: https://united24media.com/war-in-ukraine/ai-powered-turret-that-hunts-russian-drones-meet-sky-sentinel-ukraines-new-air-defense-8589

Quelle 6:
Wikipedia (nur zur technischen Einordnung verwendet – nicht als Primärquelle!)
Titel: IAI Harop – Kamikaze-Drohne mit autonomem Zielsystem
Stand: abgerufen Mai 2025
URL: https://en.wikipedia.org/wiki/IAI_Harop

Quelle 7:
Center for a New American Security (CNAS), Washington, D.C.
Titel: The Kill Chain Is Breaking Free – AI and the Delegation of Combat Decisions
Autorenteam unter Leitung von Paul Scharre
Veröffentlicht: Februar 2025
URL: https://www.cnas.org/publications/reports/the-kill-chain-is-breaking-free

III. Elon Musk, Starlink und Robotik

Quelle 8:
Financial Times (britische Wirtschaftszeitung)
Titel: Oracle to buy $40bn of Nvidia chips for OpenAI’s new US data centre
Veröffentlicht am 21. Januar 2025
URL: https://www.ft.com/content/a9cd130f-f6bf-4750-98cc-19d87394e657

Quelle 9:
TechCrunch (US-Technachrichtenplattform)
Titel: OpenAI teams up with SoftBank and Oracle on $500B data center project
Veröffentlicht am 21. Januar 2025
URL: https://techcrunch.com/2025/01/21/openai-teams-up-with-softbank-and-oracle-on-50b-data-center-project/

Quelle 10:
OpenAI (offizielle Firmenwebsite)
Titel: Announcing The Stargate Project
Veröffentlicht am 21. Januar 2025
URL: https://openai.com/index/announcing-the-stargate-project/

Quelle 11:
Times of India (indische Tageszeitung, Technologieressort)
Titel: Elon Musk provides an update on Tesla’s Optimus robot: “There will be a million of them”
Veröffentlicht am 28. Februar 2025
URL: https://timesofindia.indiatimes.com/technology/social/elon-musk-provides-an-update-on-teslas-optimus-robot-there-will-be-a/articleshow/119912214.cms

Quelle 12:
The Sun (britisches Boulevardblatt, Technik-Rubrik)
Titel: Elon Musk reveals Tesla Optimus robot “will do everything from cooking to caring for the elderly”
Veröffentlicht am 16. März 2025
URL: https://www.thesun.co.uk/tech/31012254/moment-elon-musk-reveals-tesla-optimus-robots/

Günther Burbach

Günther Burbach, Jahrgang 1963, ist Informatikkaufmann, Publizist und Buchautor. Nach einer eigenen Kolumne in einer Wochenzeitung arbeitete er in der Redaktion der Funke Mediengruppe. Er veröffentlichte vier Bücher mit Schwerpunkt auf Künstlicher Intelligenz sowie deutscher Innen- und Außenpolitik. In seinen Texten verbindet er technisches Verständnis mit gesellschaftspolitischem Blick – immer mit dem Ziel, Debatten anzustoßen und den Blick für das Wesentliche zu schärfen.
Mehr Beiträge von Günther Burbach →

Ähnliche Beiträge:

41 Kommentare

  1. In wenigen Minuten wird die Iranische Antwort in Israel einschlagen, vermutlich werden die Atomanlagen Negev und Sorek die Hauptziele.

      1. Na dann, lass die Welt brennen. Hat uns ja vorher auch nicht interessiert. Die Kriegsparteien haben 95 % aller Wählerstimmen bekommen, also kann es die Mehrzahl der Menschen in Deutschland nicht sonderlich stören, wenn sie und ihre Lieben verdampfen.

    1. Der Feigling Netanjahu hat sich ja schon verpisst. Wahrscheinlich auch der Rest seiner
      fascho Regierung. Das Volk ist denen scheiß egal. Aber da es ja in den letzten Monaten
      sehr willig war, die Palestinänser auszurotten, weine ich denen keine Träne nach.
      Und wieder konnte man sehen, dass auf ein Wort der USA absolut kein Verlass ist. Gerade
      hatte Trump noch palavert, Israel nicht zu unterstützen. Mal sehen ob Russland jetzt
      Wort hält und den Iran unterstützt. Wahrscheinlich war genau das das Ziel dieses Angriffs,
      man will Russland mit einem 2. Kriegsschauplatz aus der Reserve locken. Vielleicht wachen
      die israelischen Nachbarn ja endlich auf, dass sie jederzeit das nächste Ziel dieses durchgeknallten
      Volkes werden können und nutzen die Cance jetzt und helfen den Iranern dem endlich ein Ende zu
      bereiten. Es wird daraus sonst, wie Trux schon geschrieben hat, ein Weltenbrand entstehen.

      1. Überall dort wo Trump von Verhandlungen und Frieden palavert eskaliert die Lage. Im Grunde hat er durch sein Gequatsche über die Gefahr der iranischen Atombombe den israelischen Angriff legitimiert. Ähnlich wenn CIA und MI6 die russischen Atombomber angreift. Die Schlüsse die Russland und China daraus ziehen müssen sind fatal.

  2. Ich befürchte, dass sich schon sehr bald sehr viele Menschen „den grossen Knall“ herbeisehnen werden, damit dieser ganze Wahnsinn endlich mal ein Ende hat. Die evolutionäre Sackgasse namens „Mensch“ hat es auch nicht anders verdient.

  3. Demokratische Kontrolle? Lol ! Sie folgt immer dem Geld und der Macht. Die bessere Bezeichnung wäre plutoktatische Kontrolle. Es gibt bestenfalls eine Demokratiesimulation. Wer Antikapitalistisch wählen will oder aktiv ist , der hat ganz schnell den BND am Arsch. Und wer abweichende Meinungen vom Mainstream hat, bekommt ebenfalls Probleme. Teilweise sehr gravierende.
    Und wenn ein Staat antikapitalistische Ambitionen hat, dem tritt god´s own country ( USA & Konsorten )
    ganz schnell in den Hintern. Im Westen nennt man dies Präventivschläge. Bei allen anderen wird dies als unprovozierter
    Angriffskrieg bezeichnet.

  4. Ich denke, es ist bereits zu spät! Die einzige Hoffnung dürfte sich m.E. darauf gründen, daß es vielleicht rechtzeitig zu einer Art Unfall bei der beschriebenen Entwicklung kommt und die Menschheit daraufhin aufwacht. Warnungen, Aufklärung und alles dergleichen verpufft wirkungslos.

  5. Zunächst Danke an den Autor für diesen Artikel.

    ,,Technisch basiert vieles auf sogenanntem Edge Computing, also Rechenleistung, die direkt im Gerät stattfindet, nicht mehr auf einem zentralen Server. Das macht Systeme schneller, reaktionsfähiger, aber auch weniger kontrollierbar.“

    Ja richtig – aber für autonome Systeme ohne externe Stromversorgung (wie zB Drohnen) fehlt in der Aufzählung Eines: Edge Computing erhöht den Stromverbrauch signifikant.
    Für eine gute Analysefähigkeit wird also entweder die autonome Reichweite verringert, ein Verbund aus einer Vielzahl vernetzter Geräte mit Arbeitsteilung benötigt – oder aber die Qualität der Analysen sinkt (mit der entsprechenden Steigerung an Kolateralschäden verknüpft).

    Prinzipiell ist schon abzusehen, worauf das „Ding“ hinausläuft: auf große Schwärme und exorbitante Kolateralschäden, die von der Propaganda verniedlicht und entmenschlicht werden.

    PS: ich sehe dem mit einer gewissen Gelassenheit entgegen, da es eine Menge Möglichkeiten zum Widerstand und zur Hintertreibung gibt – aber die Gefahr ist sehr real und sollte nicht unterschätzt werden. Der Widerstand ist in der Position des underdog…und das bietet auch eine Reihe von Chancen.

    1. Nur Zu:
      „Ja richtig – aber für autonome Systeme ohne externe Stromversorgung (wie zB Drohnen) fehlt in der Aufzählung Eines: Edge Computing erhöht den Stromverbrauch signifikant.
      Für eine gute Analysefähigkeit wird also entweder die autonome Reichweite verringert, ein Verbund aus einer Vielzahl vernetzter Geräte mit Arbeitsteilung benötigt – oder aber die Qualität der Analysen sinkt (mit der entsprechenden Steigerung an Kolateralschäden verknüpft).“

      Wirklich Rechen-/Energie-aufwändig ist das Trainieren von neuronalen Netzwerken (die reine Nutzung eines neuronalen Netzwerks, nach „Auslernen“, ist dagegen nicht so Energie-Intensiv und eine Drohne sollte man vermutlich sowieso nicht während eines Einsatzes lernen lassen…). Schon Mal überlegt, wie lange die Akku-Laufzeit von gängigen Smartphones ist (und für viele Anwendungen reichen durchaus die Rechenkapazitäten von Smartphone-Prozessoren aus)? Und dass man für Kamikaze-Drohnen dann doch nicht so lange Akkulaufzeiten braucht?

      Nur für Drohnen, welche eben nicht als Kamikaze-Drohnen fungieren, ist dieses irgendwie relevant. Aber in dem Falle ist dann nur die Einsatzdauer (bis zum Akkutausch bzw. Akkuaufladung) betroffen und dieses kann durchaus einkalkuliert werden bei Einsätzen. Und für Drohnen ab einer bestimmen Größe (und einem gewissen Gewicht) spielt es dann auch keine große Rolle mehr, ob die Drohne dann z.B. noch einen Computer mit dem Gewicht eines normalen Desktop-PCs und z.B. zusätzlich einen 50-100 kg Akku (für den Computer) installiert hat.

      1. ,,Schon Mal überlegt, wie lange die Akku-Laufzeit von gängigen Smartphones ist (und für viele Anwendungen reichen durchaus die Rechenkapazitäten von Smartphone-Prozessoren aus)?“

        Ja für gängige Anwendungen, bei der eine humane Intelligenz auswertet, reicht das Smartphone aus (für ausgelagerte elektronische Wischgehirne dann ja schon nicht mehr…).

        Vollautonome Navigation benötigt aber präzise Genauigkeit – und da sind wir noch meilenweit von weg bzw erst ganz am Anfang der Entwicklung. Für Smartphones wird urbanes Gebiet immer noch als „rauhe Umgebung“ bezeichnet, in der Umwelteffekte, miniaturisierte Antennen und ultra-low-cost-chipsätze, Smartphone-Holding-Modi zum schwerwiegenden Problemen wie zB Channel-Noise-Ratio oder fehlenden Phasenbeobachtungen führen. Kann man natürlich alles lösen, dann aber mit dem dazugehörigen Stromverbrauch.

        ,,Und dass man für Kamikaze-Drohnen dann doch nicht so lange Akkulaufzeiten braucht?“

        Bei Kamikaze-Drohnen im Ukrainekrieg gehen Whistleblower aktuell sehr wohlwollend von einer realistischenTrefferquote von etwa 30% aus, die restlichen 70% verrecken bereits im Anflug, treffen ihr Target nicht oder halt ,,leider nur einen Kollateralschaden“.

        Warum ist die Drohne am Glasfaser wohl so ein großer Erfolg?

  6. Es ist gut, daß wenigstens kurz, aber deutlich darauf hingewiesen wird, daß es nicht die freilaufende Technik und Technologie ist, die uns umbringt, sondern deren freilaufende BESITZER.
    Somit landen wir auf dem kürzesten Weg wieder einmal bei den Eigentumsverhältnissen und der Systemfrage.

  7. wenn riesige Modelle gebaut werden dürfen, die niemand mehr vollständig versteht

    Auch die „kleinen Modelle“ haben Milliarden an Parametern und auch wenn man die Trainingsmethode kennt, weiß man nicht, was sich da genau gebildet hat.

    Ja, ich sehe die Entwicklung auch kritisch, aber ich habe trotzdem keine Angst davor, bisher haben die Menschen noch immer irgendwie die Kurve gekriegt. Es wird Opfer geben, das ist klar, die gibt es bei jeder technischen Entwicklung, trotzdem wird sie unaufhaltsam voranschreiten, wenn nicht bei uns, dann halt anderswo, unserer Kontrolle entzogen. Und eben so groß, wie die Gefahr, sind die positiven Potentiale, von der Medikamentenentwicklung über die Ausmerzung stupider Arbeiten bis hin zur Hilfe in Haushalt, Landwirtschaft, Produktion usw.

    Es gibt m.E. nie ein hohes Potential ohne hohes Risiko, ich will trotzdem nicht zurück in die Höhle…

    1. Und eben so groß, wie die Gefahr, sind die positiven Potentiale, von der Medikamentenentwicklung über die Ausmerzung stupider Arbeiten bis hin zur Hilfe in Haushalt, Landwirtschaft, Produktion usw.

      Es gibt m.E. nie ein hohes Potential ohne hohes Risiko, ich will trotzdem nicht zurück in die Höhle…

      Ich glaube nicht, dass sich die positven Potentiale und die Gefahren gegenseitig aufheben. Ich bin alt genug, dass ich schon so einige technische Neuerungen erlebt habe, wo sich die „positiven Potentiale“ am Ende als ziemlich mau erwiesen haben im Gegensatz zu den Gefahren und Zerstörungen, die durch die technischen Neuerungen entstanden sind.
      Und die kapitalistische Verwertungsmechanik wird sowieso verhindern, dass daraus etwas im Ganzen gesehen eher Positives entstehen kann.

      Irgendwie mehr Bequemlichkeit und ein paar Medikamente reichen mir nicht. Müssen Menschen noch länger leben? Eher nicht, aber besser leben könnten sie vielleicht. Aber das tun sie nicht, wenn ihnen noch mehr Bequemlichkeit angeboten wird. Auch stupide Arbeiten (die sind ja schon ziemlich reduziert) sind oft nicht ganz unsinnig. Dafür beschneiden die neuen Technologien aber sehr oft die kreativen Möglichkeiten und die Bequemlichkeit selbst fordert die Menschen auch nicht mehr heraus, sondern lässt ihre kreativen Fähigkeiten weiter verarmen. Daraus kann nichts Gutes entstehen.

      Mich stört auch dieses Entweder/Oder. Entweder man lässt sich von der technischen Entwicklung am Schlawittchen durch die Weltgeschichte schleifen oder man landet wieder in der Höhle!? Genau das wird uns doch immer erzählt.
      Und wenn man einer solchen Betrachtung glaubt, ist einem schon genau jenes kreative Element abhanden gekommen, von dem ich eben gesprochen habe und das doch eines der wesentlichsten Elemente menschlichen Daseins ist.

      1. Ich bin alt genug, dass ich schon so einige technische Neuerungen erlebt habe, wo sich die „positiven Potentiale“ am Ende als ziemlich mau erwiesen haben im Gegensatz zu den Gefahren und Zerstörungen, die durch die technischen Neuerungen entstanden sind

        Welche?

        Und die kapitalistische Verwertungsmechanik wird sowieso verhindern, dass daraus etwas im Ganzen gesehen eher Positives entstehen kann.

        Ein linker Glaubenssatz, ohne Kapitalismus gäbe es gar keine KI und wahrscheinlich auch keine entsprechend leistungsfähigen Computer oder Internet. In der DDR war schon ein Telefon ein Privileg. Das Nachäffen des Westens war Standard, nur schmutziger, ineffizienter und unvollständiger…

        Irgendwie mehr Bequemlichkeit und ein paar Medikamente reichen mir nicht. Müssen Menschen noch länger leben? Eher nicht, aber besser leben könnten sie vielleicht. Aber das tun sie nicht, wenn ihnen noch mehr Bequemlichkeit angeboten wird.

        KI kann zu einer Explosion der Kreativität führen und Projekte ermöglichen, die wir uns noch gar nicht vorstellen können, aber ja, kein Zweifel, viele werden damit nicht umgehen können (aber deshalb will ich trotzdem nicht drauf verzichten, denn selbiges traf schon auf den Fernseher, Computer und auf das Smartphone zu, die Schlauen werden dadurch schlauer, die Dummen dümmer, das ist der Lauf der Entwicklung).

        Dafür beschneiden die neuen Technologien aber sehr oft die kreativen Möglichkeiten

        Im Gegenteil. Was bisher nur gut durchfinanzierten Studios möglich war, etwa einen Film zu drehen, könnte auf absehbare Zeit jeder hinbekommen. Oder Softwareentwicklung. Ich sehe das ein bisschen wie beim Internet: früher konnte man sich allenfalls in der Kneipe mit anderen austauschen, musste verzweifelte Leserbriefe schreiben oder Flugblätter verteilen etc. heutzutage kann jeder einen Blog oder Videoblocg aufmachen, Millionen von Menschen erreichen und auch online diskutieren, das hat sich alles demokratisiert und sehr viel verändert.

        Mich stört auch dieses Entweder/Oder. Entweder man lässt sich von der technischen Entwicklung am Schlawittchen durch die Weltgeschichte schleifen oder man landet wieder in der Höhle!?

        So war das nicht gemeint, sondern so, dass wenn man keine Risiken eingeht, auch keine positive Fortentwicklung stattfindet (sprich wir würden immer noch in der Höhle leben).

        Aber der Zug fährt auch ohne uns, alle großen Player auf der Welt entwickeln KI: China, Russland, USA usw. dazu natürlich die privaten Konzerne und m.E. auch die Open Source-Scene. Man kann sich viele davon runterladen und sie lokal ausführen, das einzige was im Heimbetrieb stört, ist die fehlende Leistungsfähigkeit der Hardware (und aktuell ein Mangel an günstiger Verfügbarkeit), aber ich schätze das wird sich sukzessive ändern.

        Ich glaube nicht, dass man die Entwicklung stoppen oder auch nur durchgehend kontrollieren kann. Man kann sich drauf einlassen und versuchen das Beste draus zu machen und die negativen Übertreibungen einzufangen oder man lässt sich treiben, wird abgehängt und entgeht der Entwicklung am Ende doch nicht.

        1. Welche?

          Smartphones, Kernspaltung, bargeldlose Zahlung, Plastik, Gentechnik, ein Haufen praktischer aber eminent giftiger Ewigkeits-Chemikalien – und Hunderte andere Dinge. Natürlich auch der Laubbläser, den Kollege Brian hier angeführt hat 😀
          Alles Dinge, die ein paar schöne Vorteile, vor allem für die Bequemlichkeit gebracht haben, deren Nachteile aber bei weitem überwiegen. Nun, wie ich Sie einschätze, werden Sie das sicher etwas anders sehen.
          Aber kann man denn wirklich sagen, nach all diesen Erfindungen, die Menschheit wäre aktuell auf einem guten Weg? Ich sehe eher Degeneration auf allen Ebenen, körperlich, geistig, seelisch, aber auch gesellschaftlich und umweltmäßig.

          Ein linker Glaubenssatz, ohne Kapitalismus gäbe es gar keine KI und wahrscheinlich auch keine entsprechend leistungsfähigen Computer oder Internet. In der DDR war schon ein Telefon ein Privileg. Das Nachäffen des Westens war Standard, nur schmutziger, ineffizienter und unvollständiger…

          Mit lechts oder rings hat das erst einmal nichts zu tun.
          Wir wissen gar nicht, was es ohne den Kapitalismus gegeben hätte, denn der hatte uns ja immer fest im Griff. Wir wissen nicht was für Dinge erfunden worden wären oder wie diese angewandt worden wären, wären es nicht (meist) nerdige Spielkinder und Fachidioten gewesen, die diese entwickelt hätten, gefördert von Geldgebern oder sonstigen Mächtigen, die das Zeug natürlich gleich auf viele üble Weisen für sich ausgebeutet haben.
          DDR oder ähnliche Staaten kann man ja da nicht als Gegenmodell ernst nehmen. Ein solches hat es nie gegeben, was aber nicht heißt, dass es nicht möglich wäre.

          KI kann zu einer Explosion der Kreativität führen und Projekte ermöglichen, die wir uns noch gar nicht vorstellen können, aber ja, kein Zweifel, viele werden damit nicht umgehen können (aber deshalb will ich trotzdem nicht drauf verzichten, denn selbiges traf schon auf den Fernseher, Computer und auf das Smartphone zu, die Schlauen werden dadurch schlauer, die Dummen dümmer, das ist der Lauf der Entwicklung).

          Was soll denn das jetzt heißen. KI wäre eine Art (wünschenswerte?) sozialdarwinistische Challenge um die Schere zwischen den Schlauen und den Dummen zu vergrößern?
          (Sorry, wenn ich hier was unterstelle, aber das hörte sich wirklich schräg an).

          Ich stimme zu, KI wird zu Projekten führen, die wir uns noch gar nicht vorstellen können, mit Sicherheit. Aber Explosion der Kreativität? Nein! Ganz und gar nicht. Je mehr Dinge automatisiert sind, desto weniger Kreativität und vor allem, desto weniger Lebendigkeit ist möglich. Ich vermute eher das Ganze wird sehr schnell schal und taub und öde werden. Es wird uns nerven und verfolgen und quälen, so wie die ununterbrochene Werbung, der wie jeden Tag fast überall ausgesetzt sind.
          Natürlich wir haben uns alle an Fernseher, Computer und (fast alle) an das Smartphone gewöhnt. Aber glauben Sie wirklich das unser Leben ohne diese Dinge irgendwie prinzipiell schlechter wäre? Ich nicht.

          Im Gegenteil. Was bisher nur gut durchfinanzierten Studios möglich war, etwa einen Film zu drehen, könnte auf absehbare Zeit jeder hinbekommen.

          Vieles wird dadurch aber auch beliebig. Gerade Filme, so finde ich, gibt es kaum noch Gute. Und das hat auch viel mit der Technisierung zu tun. Die Technik in modernen Filmen ist überragend, aber die Geschichten sind so armselig schwach. Und da hilft auch keine KI. Da fehlt es einfach an echter Kreativität und lebendigen Impulsen.

          Ich sehe das ein bisschen wie beim Internet: früher konnte man sich allenfalls in der Kneipe mit anderen austauschen, musste verzweifelte Leserbriefe schreiben oder Flugblätter verteilen etc. heutzutage kann jeder einen Blog oder Videoblocg aufmachen, Millionen von Menschen erreichen und auch online diskutieren, das hat sich alles demokratisiert und sehr viel verändert.

          Ja, das hat sehr viel verändert. Und da sind auch ein paar wirklich gute Dinge bei, kein Zweifel.
          Aber wirklich viel Positives bewirkt? Ich weiß nicht. Demokratischer ist es jedenfalls nicht geworden.
          Und nun sitzen die Leute zuhause vor ihren PCs oder Smartphones und die Kneipen sterben aus. Damit aber auch eine gewisse Bindung zur lokalen Umwelt. Auch etwas, was eminent wichtig ist und kaum merklich verloren geht. Lokale Bindungen sind aber wichtig, wenn man überhaupt noch etwas Reelles auf die Beine stellen will.

          Ich glaube nicht, dass man die Entwicklung stoppen oder auch nur durchgehend kontrollieren kann. Man kann sich drauf einlassen und versuchen das Beste draus zu machen und die negativen Übertreibungen einzufangen oder man lässt sich treiben, wird abgehängt und entgeht der Entwicklung am Ende doch nicht.

          Schon wieder die Entweder/Oder-Falle!
          Im Grunde ist es sicher nicht die schechteste Haltung, die Sie da versuchen. Pragmatisch.
          Trotzdem hat das aber auch etwas Resignatives.
          Ja, man kann die Entwicklung nicht stoppen.
          Und nein, man kann es auch nicht durchgehend kontrollieren.
          Man könnte aber versuchen etwas anderes zu entwickeln und das muss eben nicht oder nicht nur auf technischer Ebene sein.
          Wird man halt abgehängt, erst mal. Einem Zug, der gegen die Wand fährt, von dem möchte ich auch gerne abgehängt sein.
          Gibt es denn wirklich nur diese eine, quasi vorgezeichnete Entwicklung, wo man nichts anderes kann als sich ihr anschließen? Glaube ich nicht.

      2. @Two Moon
        Danke, das sehe ich sehr ähnlich, gerade auch, was das ‚kreative Element‘ und das ‚Höhlen-Gleichnis‘ (😉) betrifft. Man muss nicht gleich Technik per se verteufeln, aber viele sogenannte technische Entwicklungen sehe ich doch sehr kritisch. Alleine schon die mittlerweile sehr ausgeprägten Möglichkeiten zur Überwachung sollten einem zu denken geben (über Waffen brauchen wir, glaube ich, gar nicht erst anzufangen).
        Aber auch so etwas vergleichsweise Banales wie den Laubbläser halte ich nicht für eine besondere technische Errungenschaft. Macht extrem viel Lärm, stinkt, ist nicht besonders gut für die Umwelt, aber Hauptsache, man kann zwei Blätter von links nach rechts blasen (mehrfach beobachtet).
        Und daß Arbeit/körperliche Arbeit (zumindest, wenn sie einem sinnvoll erscheint) regelmäßig zu einer erhöhten Zufriedenheit führen kann, wird auch immer wieder gerne außen vorgelassen. Überflüssig zu bemerken, daß es dabei nicht um Bullshit-/Ausbeutungs-Jobs oder Arbeiten unter extremem Stress/Zeitdruck geht.
        Es ist m.E. eben auch genau dieses von Ihnen erwähnte kreative Potenzial, die Entfaltung der eigenen Möglichkeiten und eben nicht die in ein Schema gepresste Norm, die einem ein einigermaßen zufriedenes Leben ermöglichen. Und einen Sinn im eigenen Dasein erkennen lassen. Und nicht stur irgendwelchen stumpfsinnigen Vorgaben zu folgen, die sich andere ausgedacht haben.

  8. „Denn die technologischen, politischen und ökonomischen Voraussetzungen*, um solche Szenen Wirklichkeit werden zu lassen, sind längst geschaffen.“
    Schlimm das, wenn das engagierte und reflektierte Gros plötzlich, unmittelbar, unvorbereitet, ohne eigenes Zutun oder Unterlassen, mit vollendeten Tatsachen konfrontiert wird. Ähnlich wie Weihnachten, welches ebenfalls überfallartig an JEDEM 24.12. vor der Tür steht.😯

    „Wir leben nicht in einer Dystopie..“ 🤔
    Wann wird ein Schmetterling zu diesem?
    In seiner voll entwickelten Endphase, mit „wunderschöner und effizienter Gestalt“, oder beginnt seine Entwicklung bereits kleiner – als Raupe oder im unscheinbaren Kokon?

    „Aber wer jetzt wegsieht, wird später nicht sagen können, er habe es nicht gewusst.“
    Ja, dank welchen kognitiven Kunststücks soll es gelingen, etwas zu erkennen, was sich auch bisher (als es noch nicht zu spät war) nicht erschloss?!

    Ein Lösungsansatz wäre eventuell in den Ausführungen des folgenden Beitrages zu finden. Aber Achtung – Warnhinweis!
    Nur geeignet für Konsumenten, für die Nach- und Denken sowie Selbstreflexion überbewertet sind und daher keine bleibenden Folgeschäden verursachen können!

    „Der eigene Anteil“/Manova/
    3.6./Ronny Ebel
    „Es wird oft über „die da oben“ geschimpft, anstatt sich die unbequeme Frage zu stellen, was man selbst zu den Umständen beiträgt, deren Herbeiführung man sinistren Mächten unterstellt.“

    *für alle Bereiche des Lebens

  9. Oh, es wird noch viel weitergehen. Spätestens wenn die KI auf dem Schlachtfeld Einzug gehalten hat, wird sie auch in der Planungsstelle übernehmen. Und da wird sie logischerweise entscheiden, dass es viel mehr Sinn macht, nicht nur den Gegner an der Front, sondern auch den hinter der Front zu töten. Ohne Programmierer keine neue KI, also sind Unis ein Ziel. Ohne Schüler, keine Absolventen, also werden Schulen das Ziel. Ohne Mütter keine Schüler, also werden Frauen das Ziel usw. Alles ganz logisch, alles ganz rational – ohne menschlichen Einfluss.
    Das wird noch spannend, genießt euer Leben, solange es noch geht.

  10. Naja, die Wirklichkeit ist dann doch kein Videospiel, in dem RNG entscheidet ob bei 78% Bedrohung das Feuer eröffnet wird oder nicht.

    So ist Starlink ein normales Satelliten-Kommunikationssystem (erster war bereits 1963). Das gabs auch schon vorher, was Musk getan hat ist das ganze billiger und massentauglicher zu machen (und eine Einnahmequelle für SpaceX zu schaffen): Statt ein paar grosse Satelliten so zu positionieren dass sie den Globus abdecken, müllt er LEO mit tausenden von kleinen Wegwerf-Satelliten zu (auch die Idee ist nicht neu, siehe Teledesic). Für Aufklärung und Zielerfassung nutzt Ukraine ganz andere Systeme, die von USA und NATO-Ländern zur Verfügung gestellt werden.
    Und Musk kann ganz bestimmt nicht spezifische Signale blockieren, das ist reine Selbstdarstellung eines pathologischen Schwätzers.

    Noch schlimmer wirds wenn man „Optimus“ mal genauer anschaut. Das ist ein vom Schwätzer gehyptes Spielzeug, das eigentlich nichts kann was Elon angibt: Es gibt zb ein Werbevideo in dem das Ding ein Paket ausliefert, bei dem man schnell erkennt dass fast alles gefaked wurde.
    Der Hund von Boston Dynamics dagegen.. der jagt mir jedesmal Schauer über den Rücken wenn ich ihn sehe.

    Die Deregulierung ist unvermeidlich, da stimm ich zu. Microsoft/OpenAI hätten ihre 500 Mia schwere Umverteilungsorgie ebenso problemlos bei den Demokraten durchgedrückt. „KI“ ist in Grosskonzernen bereits überall, versucht zb bei google/abc zu einem Menschen durchzudringen. Oder den „Tonband-Bot“ zu umgehen den längst alle vor ihren Kundenservice spannen.

    Hier liegt imho die wirkliche Gefahr. In der institutionalisierten „KI“ ala dem Bürokraten-Bot oder dem „Factchecker“-Bot. Dafür werden grad all die Serverfarmen gebaut und Abgeordneten gekauft, denn das wird ein riesengrosses Geschäft. Im Faschismus (Verschmelzung von Staat und Grossindustriellen) eigentlich bloss eine logische Konsequenz.

    Daher fürchte ich mich weder vorm Terminator noch vor Skynet. Nichtmal vor den Screamern. Autonome Kampfsysteme die in zerstörten Innenstädten auf Menschenjagd gehen mögen ja Elon Musk oder Eric Prince feuchte Träume beschehren, aber es gibt noch diverse technische Hürden zu nehmen.

    Ein automatisiertes Bürokratiemonster ala „Brazil“ oder ein Zensur-Bot für das kommende Mini-Wahr dagegen könnten tatsächlich in naher Zukunft Realität werden. Die gesellschaftlichen Entwicklungen gehen auch in die Richtung (zb Leute die ChatGPT fragen und glauben statt etwas selbst herauszufinden und somit zu wissen).

    1. So ist Starlink ein normales Satelliten-Kommunikationssystem (erster war bereits 1963). Das gabs auch schon vorher, was Musk getan hat ist das ganze billiger und massentauglicher zu machen (und eine Einnahmequelle für SpaceX zu schaffen): Statt ein paar grosse Satelliten so zu positionieren dass sie den Globus abdecken, müllt er LEO mit tausenden von kleinen Wegwerf-Satelliten zu (auch die Idee ist nicht neu, siehe Teledesic).

      Eine Besonderheit hat Starlink ! Dadurch das die Satelliten in einer relativ niedrigen Umlaufbahn kreisen haben sie eine geringere Latenz als herkömmliche Satelliten außerdem ermöglicht das System eine wesentlich höhere Datenrate.

      Starlink 20-40 ms 50-500 Mbps
      Viasat (satellite internet) 500-800 ms 25-250 Mbps
      Hughesnet (satellite internet) 600-900 ms 25 Mbps

      https://blinqblinq.com/starlink-latency-and-ping-times/

      Damit ermöglicht es erst den großflächigen Einsatz von Drohnen mit Kammera Steuerung. Und damit prädestiniert es Starlink auch für eine militärische Nutzung die ja auch grade in der Ukraine vielfach erprobt wird..

      Mfg Makrovir

      1. Das ist eigentlich logisch, aber war mir nicht bewusst. Besonders dass die Unterschiede dermassen gross sind.

        Danke für die Info.

  11. Schwer vorstellbar, wie eine politische Bewegung das aufhalten soll. Wenn die vorigen Gesetze in USA wieder in Kraft träten, dann würden die KI-Firmen Schiffe kaufen und auf internationalen Gewässern operieren. Peter Thiel und andere haben das schon erwogen. Aber die Hardware können sie dort nicht bauen. Die untersteht immer noch den Streitkräften und da muss es einen Verantwortlichen geben für das, was diese Dinger tun. Und zwar ein Mensch.
    Die Vorstellung, sie wir von einer Front im Landkrieg haben, ist inzwischen hinfällig. Der österreichische Oberst Markus Reisner berichtet, dass die Front schon jetzt aus einer 15 Kilometer breiten Todeszone besteht. Kein Infanterist kann sich da bewegen, ohne von Drohnen entdeckt und bekämpft zu werden.
    Was ein ganz klein wenig Hoffnung zulässt. Insgesamt stärkt das die Defensive, denn bedroht wird der, der sich bewegt und das ist nun mal der Angreifer. Der moderne Landkrieg ist mehr oder weniger ein großes Verdun, bei dem es kein Vorrücken, aber ungeheure Verluste gibt. Das wird nun weltweit von Strategen beobachtet und die könnten zu dem Schluss kommen, dass Angriffe völlig sinnlos sind.
    Das wäre der positive Ausgang des angefangenen Dramas.

  12. Ich halte es mit Sokrates :
    Ist es wahr? Wahrscheinlich.
    Ist es gut für mich zu wissen? Eher nicht.
    Ist es nützlich? Nein.
    Um gleich vorweg zu sagen. Das hat nichts mit ignorieren zu tun. Ich nehme es wahr, kann aber absolut gar nichts daran ändern. Das bewegt sich auf einer Ebene der globalen Gesellschaft, die mehr als 100.000 km von mir entfernt ist. Und ob ich es weiß oder in China fällt ein Sack Reis um, das ist in etwa das selbe.

  13. „Wir leben nicht in einer Dystopie.“

    Jede, aber wirklich jede Entwicklung der letzten Jahre, vollkommen egal auf welchem Erdteil dieses unglücksseligsten aller Planeten und auch vollkommen egal auf welchem Fachgebiet (un)menschlicher Betätigung, lässt nur einen einzigen adäquaten Schluss zu: wir (er)leben eine weltweite Dystopie, zu verfolgen in Echtzeit und ablesbar noch in der scheinbar belanglosesten dpa Meldung!

    Die KI, die uns als die ultimative Lösung sämtlicher Menscheitsprobleme verkauft wird, dürfte, selbst bei reiflicher Überlegung, nur der Sargnagel für die Zivilisation sein.

    Und dann ist es auch fast schon wurscht, ob sie entweder militärisch oder „bloß“ zivil vermarktet wird: der Kapitalismus steht in jeglicher Hinsicht vor seiner Vollendung…

  14. und einer klaren Absicht: zu warnen, bevor es zu spät ist.

    Die Warnung dürfte so ungefähr 5 – 6 Millionen Jahre zu spät kommen.

    Und was geschieht, wenn die Werkzeuge zur Macht bei jenen liegen, die sich keiner demokratischen Kontrolle mehr unterwerfen?

    Das ist leider keine Dystopie, sondern Realität.
    Und das auch nicht erst seit Trump, Musk & Co.

    Die Demokratie wird hierzulande seit 80 Jahren – erfolgreich – simuliert.

    Im Februar 2023 blockierte er erstmals bestimmte militärische Anfragen aus Kiew, etwa Angriffe auf russische Kriegsschiffe via Starlink-Daten. Das mag aus Sicht der Deeskalation vernünftig klingen, zeigt aber vor allem eines: Ein einzelner Unternehmer kann heute entscheiden, welche Armee kommunizieren darf und welche nicht.

    Das ist die Information, die kommuniziert wurde.
    Ist sie auch wahr?
    Aus Gründen bin ich dabei sehr skeptisch.

    Was hat der zwei Meter große (Kampf-) Roboter mit humanoid gestalteter Silhouette eigentlich vernichtet? Einen zwei Meter großen humanoid gestalteten (Kampf-) Roboter?

    Und die blöde Frage zum Schluss: Verkaufen sich konstruierte Dystopien besser als Heile-Blümchenpflück-Welten?

  15. Den fand Ich gut..

    AI = Actually Indians 🤣🤣

    https://www.youtube.com/watch?v=VeBQeH9lofE

    Das zeigt uns mal wieder das viele der Geschichten um die „AI“ halt auch Humbug und glattweg Betrug sind. Wie so oft wenn es um viel Geld geht. Die schwache Weltkonjunktur sorgt halt allerorts auch dafür das die Firmen Geld brauchen und eine Menge davon. Deshalb versucht man oft mittels Übertreibung und auch mit Lügen an Geld zu kommen um dann überhaupt in der Lage zu sein weiter zu entwickeln..

    Manchmal ist es auch einfach nur eine Neuauflage des mechanischen „Türken“..
    https://en.wikipedia.org/wiki/Mechanical_Turk

    Aber damit will Ich jetzt nicht die im Artikel genannten Gefahren relativieren. Diese sind durchaus auch real und wir sollten da handeln bevor man uns vor vollendete Tatsachen stellt!

    Eine große Gefahr dieser Systeme ist natürlich auch die zunehmende Verblödung der Menschen durch AI Tools und die Tatsache, dass wir damit die Fähigkeit zum kritischen Denken mehr und mehr verlernen.

    https://www.livescience.com/technology/artificial-intelligence/using-ai-reduces-your-critical-thinking-skills-microsoft-study-warns

    Mfg Makrovir

    P.S
    https://arstechnica.com/ai/2024/10/reports-teslas-prototype-optimus-robots-were-controlled-by-humans/

  16. Als Zivilist muss man sich keine Sorgen machen. Wir haben den Langbogen überlebt, die Armbrust, das Giftgas, die Panzer, Corona und die Atombombe. All diese Waffen sollten das Ende der Welt bedeuten.
    Aber was bedeutet es für die Kriegstreiber, wenn jeder x-beliebige Bürger nun über die Mittel verfügt einen panzerbrechenden Sprengkopf in ihre gepanzerten Limousinen zu befördern?
    Die Front wird sich verändern, ja. Das tat sie schon immer, und wer sich als erstes anpasste überlebte.
    Aber die wirklich tiefgreifende Veränderung wird mitten im Land stattfinden.

      1. Der militärische Nutzen dieser Waffen ist begrenzt. Am Frontverlauf in der Ukraine z.B. würden sie nichts ändern.
        Mit dem Aufkommen der Hyperschallwaffen, die auch ohne atomare Bestückung ein Industriezentrumoder eine Landebasis zerstören können, taugen die eigentlich nur noch um ganze Städte dem Edboden gleichzumachen.
        Sowas wäre aber weder dem In- noch Ausland zu vermitteln und militärisch nicht wirklich eine Priorität.

        1. Das Bronzeschwert des 21. Jahrhunderts sind weder Atomwaffen noch Hyperschallwaffen sondern Drohnen. Am Ende der Bronzezeit war die Verbreitung des Wissens zur Bronzeherstellung vor allem zu Waffenzwecken der Gamechanger der ganze Reiche zum Einsturz brachte, da praktisch jeder Barbar das Wissen besaß und auch mit einem Bronzeschwert umgehen konnte. Heutzutage sind es Drohnen die relativ günstig herzustellen sind und konventionelle Armeen bedrohen. Aber ebenso wie am Ende der Bronzezeit kann aus einem solchen „Kultursturz“ keine neue Kultur hervorgehen, es folgt eine „Dunkle Zeit“ wo der globale Austausch und das Wissen im globalen Maßstab zunächst schwindet. Es wird Jahrhunderte bis Jahrtausende dauern bis die Menschheit wieder soweit ist. Und dann hat noch die Natur mitzureden. Während die Menschheit im Warlord oder Mad-Max-Modus verharrt könnte sie Fakten schaffen, Fakten die die Spezies Mensch aus der Evolutionskarte ausradiert …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert