Künstliche Intelligenz sorgt nicht nur für hohe CO2-Emissionen, sondern verbraucht auch viel (Kühl)Wasser.
Menschliche Gehirne machen gerade mit durchschnittlich 1400 Gramm einmal 2 Prozent des Körpergewichts aus, verbrauchen aber 20 Prozent der gesamten Energie. Auch in relativer Ruhe, etwa im Schlaf oder sogar im Koma, ist die Grundlast noch sehr hoch. Es benötigt viel Sauerstoff, ein Fünftel des gesamten Sauerstoffbedarfs des Körpers. Und das Gehirn ist ein parasitärer Zuckerfresser. 140 Gramm Glucose werden täglich etwa im normalen Zustand verbraucht, das entspricht einem Anteil von 75 Prozent des Gesamtverbrauchs aller Körperzellen, kann aber bei Stress 95 Prozent der Glucose verschlingen. Wenn man so will, so verbraucht Intelligenz, also Denken, Kommunizieren, Wahrnehmen, Fühlen, Steuerung des Körpers etc., Unmengen an Ressourcen und Energie.
Die lange geglaubte Immaterialität des Geistes ist eine Chimäre, ebenso wie das bei den digitalen Daten oder gar der Cloud ist. Gehirne und Datenzentren sind die gefräßige Infrastruktur, ohne die nichts geht. Extrem energiehungrig ist daher wenig erstaunlich auch die Künstliche Intelligenz. Deren Entwicklung und Betrieb frisst mehr Energie als andere Computerleistungen, da gewaltige Datenmengen durchsucht werden.
Zwar mag KI helfen, Prozesse zu optimieren, um Energie- und Ressourcenkonsum zu verringern, aber dazu benötigen die Systeme eben sehr viel Energie und Ressourcen und tragen damit zur Klimaerwärmung und Umweltbelastung bei. Dafür sorgt auch die Konkurrenz, weil nicht nur von den großen Konzernen immer mehr KI-Systeme entwickelt und betrieben werden. Natürlich hängt viel davon ab, ob der Strom der Datenzentren mit Kohle oder Gas oder mit erneuerbaren Energien produziert wird und ob die Abwärme zumindest weiter genutzt wird und nicht einfach verpufft. Der zusätzliche Energiehunger aber bleibt. Dazu kommt, dass KI dafür sorgen kann, dass mit der Optimierung von Prozessen mehr Energie und Ressourcen verbraucht werden, allein schon, weil mit den Anwendungen die KI-Infrastruktur ausgebaut werden muss und mehr Daten über das Internet gejagt werden.
Bei Google verbrauchte die KI 10-15 Prozent des gesamten Strombedarfs des Konzerns im Jahr 2021, das wären jährlich etwa 2,3 Terawattstunden, so viel wie eine Stadt wie Atlanta mit einer halben Million Einwohner. Der Einsatz von KI wird absehbar noch schnell zunehmen und den Energieverbrauch explodieren lassen, nicht zuletzt in der Rüstung und bei der Kriegsführung wie in der Ukraine. Noch bevor massenhaft autonome Kampfsysteme in den Krieg ziehen, werden massenhaft Daten generiert und über Satellitenverbindungen geschickt, um von KI-Systemen verarbeitet zu werden. Aber es ist wenig bekannt, wie viel Energie KI-Sprachmodelle (Large language models – LLMs) wie ChatGPT benötigen, Transparenz wird klein geschrieben im Konkurrenzkampf.
Sasha Luccioni von der KI-Firma Hugging Face, die das Sprachmodell BLOOM mit 176 Milliarden Parametern entwickelt und über 118 Stunden mit 384 Nvidia-GPUs trainiert hat, schätzt in einer Studie, dass insgesamt beim Training und verschiedenen Experimenten 123, 82 Tonnen CO2-Äquivalente erzeugt. Unklar ist vor allem, wie viel Energie die GPUs fressen.
Für das Training von BLOOM alleine wurden 30 Tonnen emittiert und 433 MWh verbraucht . Das wäre deutlich weniger wie ChatGPT-3 mit 175 Milliarden GPT, das nach einer Studie aus dem Jahr 2021 550 Tonnen emittierte und 1287 MWh verbrauchte. Der Unterschied hänge vor allem mit der CO2-Intensität des benutzten elektrischen Netzes zusammen. Aber die Vergleiche seien wegen der nicht standardisierter Methodologie schwierig. Überdies kommt zum Training natürlich auch der Einsatz der Modelle hinzu, also die Verarbeitung von Milliarden von Anfragen. Und die Modelle werden immer größer. GPT-3 hat 176 Milliarden Parameter, der Vorgänger hatte nur 1,5 Milliarden. Wie viele GPT-4 hat, verrät OpenAI nicht. Gemunkelt wird, es könnten 100 Billionen sein, was CEO Sam Altman allerdings abstritt, es wird geschätzt, dass es auch nur mehr als 1 Billion sein könnte.
Natürlich wird daran gearbeitet, den Energieverbrauch zu senken und Erneuerbare Energiequellen zu nutzen, aber klar ist doch, dass die Künstliche Intelligenz den Anteil des IT-Energieverbrauchs enorm erhöht. Aber es ist nicht nur der Energieverbrauch, der durch KI steiget, sondern überraschenderweise auch der Verbrauch von Wasser. Nach dem Umweltbericht von Google hat der Konzern 2022 über 12 Milliarden Liter (21.198.305.990) Wasser verbraucht. Das sind ungefähr 20 Prozent mehr als 2021. Man kann vermuten, dass der gestiegene Ressourcenverbrauch mit KI zu tun hat. Zum Training der KI wird in den Datenzentren nicht nur viel Energie verbraucht, zum Kühlen aber auch viel Wasser, das knapp wird.
Google verspricht, alles gut zu machen und das verbrauchte Wasser zu 120 Prozent zu ersetzen und in den Datenzentren nicht mehr Trinkwasser zu verwenden. In Arizona will man deswegen beim geplanten Datenzentrum in Arizona wegen des Wassermangels auf luftgekühlte Technik setzen. Wissenschaftler von der University of California Riverside und der University of Texas Arlington schreiben in einer Studie, in der sie versuchen, den unter Verschluss gehaltenen Wasserverbrauch von Modellen der KI herauszufinden. Wasserverbrauch meint Wasser, das „verlorengeht“, beispielsweise durch Verdampfung:
„Der wachsende Kohlenstoff-Fußabdruck von Modellen der künstlichen Intelligenz (KI), insbesondere von großen Modellen wie GPT-3 und GPT-4, ist in der Öffentlichkeit in die Kritik geraten. Leider ist jedoch der ebenso wichtige und enorme Wasser-Fußabdruck von KI-Modellen unter dem Radar geblieben. Zum Beispiel kann das Training von GPT-3 in Microsofts hochmodernen Rechenzentren in den USA 700.000 Liter sauberes Süßwasser verbrauchen (genug für die Produktion von 370 BMW-Autos oder 320 Tesla-Elektrofahrzeugen). Der Wasserverbrauch hätte sich verdreifacht, wenn das Training in den asiatischen Rechenzentren von Microsoft durchgeführt worden wäre, aber diese Informationen werden unter Geheimhaltung gehalten.“
Auch ohne KI-Anwendungen sind Datenzentren sind enorm „durstig“. Googles Datenzentren in den USA haben 2021 12,7 Milliarden Liter Wasser, davon 90 Prozent Trinkwasser zur Kühlung verbraucht. Nach einer älteren Schätzung haben alle amerikanischen Datenzentren bereits 2014 626 Milliarden Liter benötigt. Und man kann annehmen, dass die besonders energiehungrige KI auch besonders durstig ist. Das Training von GPT-3 könnte, wenn man nicht nur den direkten Wasserverbrauch einbezieht, sondern auch den Wasser-Fußabdruck der Stromnutzung, in den USA 3,5 Millionen Liter verbraucht haben, in Asien 4,9 Millionen.
Wasser wird auch bei der Interaktion mit Nutzern verbraucht. Das ist auf den ersten Blick relativ wenig, ähnlich wie der Stromverbrauch beim Verschicken einer Mail oder einer Anfrage bei einer Suchmaschine: „ChatGPT muss für eine einfache Konversation mit etwa 20-50 Fragen und Antworten eine 500-ml-Flasche Wasser ‘trinken’. Auch wenn eine 500-ml-Flasche Wasser nicht allzu viel zu sein scheint, ist der gesamte kombinierte Wasser-Fußabdruck für die Inferenz in Anbetracht der Milliarden von Nutzern von ChatGPT immer noch extrem groß.“
Die Berechnung ist allerdings schwierig, weil nicht bekannt ist, in welchen Datenzentren eine KI trainiert wird. Wie die Wissenschaftler anhand von Googles LaMDA ausführen, hängt der Wasserverbrauch nicht nur vom Ort des Datenzentrums und dessen Kühltechnik, sondern auch von der Jahreszeit, der Temperatur und anderen Wetterbedingungen ab. Wenn im Sommer trainiert wird, ist der Wasserbrauch bis zu dreimal höher als im Winter. Unterschiede gibt es auch zwischen Tag und Nacht. Zudem verbrauchen Googles Datenzentren in Texas oder Virginia überhaupt mehr Wasser als die in Nevada oder Oregon. Wegen der fehlenden Daten lässt sich ein genauer Verbrauch, der abhängig ist von vielen Variablen, nicht angeben. Es würden jedenfalls Millionen von Litern für das Training eines KI-Sprachmodells verbraucht.
Ähnliche Beiträge:
- KI-Programme können Desinformationskampagnen optimieren
- Stargate: Die „Zukunft der Technologie“ soll in den Händen der USA bleiben
- Generative KI-Systeme neigen in Simulationen zu Eskalation, Wettrüsten und Einsatz von Atomwaffen
- Können KI-Systeme wie der Chatbot GPT Bewusstsein haben?
- Wenn die Cloud nicht für Regen, sondern für das Austrocknen steht
Ich plädiere für den Einsatz von mehr natürlicher Intelligenz.
Da besteht maximaler Mangel.
ist zu teuer. Jedenfalls verglichen mit dem Level an absolutem Gehorsam, das man für denselben Preis von einem Computer bekommt…😜
“Google verspricht, alles gut zu machen und das verbrauchte Wasser zu 120 Prozent zu ersetzen und in den Datenzentren nicht mehr Trinkwasser zu verwenden […] Wasserverbrauch meint Wasser, das „verlorengeht“, beispielsweise durch Verdampfung”
Das heisst ja für jeden genutzten Liter Wasser wollen die, 1,2 Liter Wasser generieren. Haben die die Technik patenieren lassen? Wäre bestimmt in vielen Regionen wichtig, wo es immer mehr an Wasser mangelt. Im Endeffekt wird es wohl eher so sein, das Grundwasser von wo anders abgepumpt wird und der Region zugeführt wird, wo es vorher entnommen wurde.
Mir ist das mit dem verbrauchten Kühlwasser nicht ganz klar. Im Auto fülle ich doch auch nicht bei jedem Tanken Kühlwasser nach.
Dass sollten doch Kreisläufe sein.
Der Energiebedarf scheint problematischer.
Ja so ein Wasserkreislauf…
Hatte nicht in Amerika ein paar fatale Zug Entgleisungen stattgefunden?
Was ist geschehen mit all der kontaminierten Erde inkl. Wasser?
Indien als zukünftiges Hoch Tech Zentrum benötigt wieviel Wasser, um zugleich über 1mrd damit zu versorgen?
Selbst in Deutschland didkutierte man über Tesla mit deren Fabrik und den notwendigen bedarf an Wasser.
Die ‘Wertigkeit’ vom Leben hängt vom Wasser ab, aber nicht von $€¥£ etc.
Ich hoffe wirklich, dass dieser ganze hochtechnologische Irrsinn, den eigentlich niemand braucht, durch einen massiven Blackout, “stillgelegt” wird – und man wieder zum Nachdenken kommt.
Ich mag dich ja nur ungern enttäuschen, aber der “ganze hochtechnologische Irrsinn” ist heutzutage globalisiert und daher relativ unempfindlich für lokale Black-Outs. Wenn sagen wir mal in USA, es zu einem großflächigen oder sogar landesweiten Black-Out käme, würden Cloud-Dienste von google und co in Europa trotzdem weiter funktionieren und deren Kunden würden es gar nicht merken, dass gerade ein wesentlicher Teil der google, microsoft und amazon Datenzentren ausgefallen sind. Weil deren Ausfall würde vollautomatisch auf Datenzentren in anderen Regionen verteilt werden.
Zwischen Stromausfall und Blackout gibt es erhebliche Unterschiede, nicht nur was die Dauer, sondern auch die Konsequenzen beträfe.
Bei einem Blackout wird ALLES komplett lahmgelegt und selbst wenn es extraterrestrische Clouds gäbe, nutzten diese absolut nichts OHNE z.B. Strom.
Wobei dieses Szenario gänzlich andere, irrsinnige Folgen hätte.
Probleme für Rechenzentren sind eher eine längere Strommangellage. Ein Blackout ist bisher in der Regel zeitlich befristet und selbst wenn das ganze europäische Netz betroffen wäre. Gäbe es immer noch USVs, Pufferspeicher (kurzfristig) oder Netzersatzanlagen (mittelfristig). Bei einer Strommangellage kommen irgendwann solche Systeme, mit der Zeit an die Grenzen.
Diese sind in der Regel für längere Zeit aus Kostengründen nicht ausgelegt. Müssen gewartet werden, durch den höheren Verschleiß. Außerdem kann es zu Treibstoff Versorgungsprobleme in Regionen geben, wo es viele Rechenzentren gibt. Wenn nicht sogar eine mangelnde Treibstoff Versorgung nicht sogar selber zu einer Strommangellage geführt hat.
https://www.heise.de/hintergrund/Wie-Rechenzentren-sich-auf-Brown-und-Blackouts-vorbereiten-7361617.html
Passt schon! Hier nur eine kurze, einfache, leicht verständliche Erklärung:
“Blackout – der längerfristige Stromausfall
Während ein normaler Stromausfall auf eine Wohnung, ein Haus oder eine Nachbarschaft begrenzt ist, hat ein Blackout größere Dimensionen.
Unter einem Blackout versteht man eine längerdauernde und über große Gebiete verteilte Großstörung, bei der das überregionale Übertragungsnetz zusammenbricht. Das heißt, es sind nicht nur die letzten Meter vom Transformator zum eigenen Haus betroffen, sondern auch Hochspannungsleitungen und weitere Netzinfrastruktur. Die Auswirkungen können dabei weitreichend sein, sind aber im Vorfeld nur schwer abschätzbar. Es können mehrere Regionen oder sogar mehrere Staaten betroffen sein.
Ein solches Szenario passiert ohne Vorwarnung und kann weitreichende Folgen haben.”
“Ein solches Szenario passiert ohne Vorwarnung und kann weitreichende Folgen haben.“
Und das ist die Erklärung was ein ‘Blackout’ ist.
Dann gäbe es noch den ‘Brownout’, eine geplante Abschaltung von Teilen oder großflächig von der Infrastruktur. Das kann auch ohne Ankündigung passieren. Wenn das Übertragungsnetz zu unstabil wird. Das ist der Grund warum die Netzbetreiber Elektroautos, Photovoltaik oder andere Großverbraucher vom Netz nehmen wollen, wenn das Netz zu instabil wird. Das dient zur Verhinderung eines ‘Blackouts’ oder noch schlimmer einer ‘Strommangellage’.
Wird in Zukunft immer mehr wahrscheinlicher. Sag das blos nicht der Ökolobby die kann das falsch auffassen.
Na Russland ist, auch wenn nicht oft erwähnt, ein IT ‘Monster’. Vielleicht nicht in der Endstufe neuester Technik, aber unabhängig,produktiv und besetzt mit Wissen/Ressourcen und fokussiert auf praktiable Lösungen!
Die grössten Wasser Vorräte liegen in Russland und nirgends wo anders, um eine humanitäre Politik zu vollziehen.
Na, dann werden wir wohl bald zur Batterie und bekommen Schläuche reingesteckt und werden in einer Matrix bespasst.
Ein alternativer Standort wäre Indien. Dort haben nach Aussage indischer Meteorologen die Niederschläge in den letzten 30 Jahren deutlich zugenommen. Google müsste nur ein paar Schüsseln aufstellen und das ansonsten weiten Teilen ungenutzt abfließende Wasser auffangen.
800 Mrd.
Wasser das verdampft geht ja nicht verloren. Die Luft wird feuchter, mehr Wasser kondensiert und regnet ab.
Stimmt, aber es kommt darauf an woher das Wasser kommt. Wird einfach Grundwasser abgepumpt oder ist das Oberflächenwasser. Wenn Grundwasser im großen Stil abgepumpt wird, geht dies verloren und es braucht eine längere Zeit Jahre / Jahrzente bis dies erneuert ist. Nach der Ausführung von Google scheint das der Fall zu sein. Des weiteren muß ab einem gewiesen Grad, mit Bodensenkungen, Errosionen und vieles mehr gerechnet werden. Wenn es Küstennah ist kann Salzwasser eindringen, was wiederrum zu Versalzung führt.
Das Wasser verdunstet zwar, aber Wolken regnen dies nicht am Ort der Entnahme ab sonderen. Vielleicht mehrere 100erte Kilometer. Was wieder zu Düren führen kann. In dem Stil wieviel dort Wasser genutzt wird. Wären das schon relevantes.
https://www.spiegel.de/wissenschaft/natur/abpumpen-von-grundwasser-bedroht-oekosysteme-weltweit-a-1289935.html
Die interessantere Frage ist für mich eher: Warum lässt man es nicht gleich vor Ort kondensieren?
Die Intelligenz generierte die KI, um den Kreis der Eugenethik herum eine Freude zu machen. Der Kunde zahlt für sein Wassermangel.
Ich habe beruflich unter anderem auch mit KI zutun. Was Ressourcenverbrauch angeht ist da eigentlich noch jede Menge Optimierungspotential. Es könnte um ein vielfaches reduziert werden. Die gängigsten Implementierungen neuronaler Netzwerke sind mit der Programmiersprache Python realisiert. Das hat seine Gründe, aber was die Nachhaltigkeit angeht ist es nicht gerade die beste Wahl. Python schneidet was den Energieverbrauch angeht gegenüber Alternativen nicht gerade gut ab. In der Tat ist Python eine der Energiehungrigsten Optionen. So würde man mit der Programmiersprache C für die gleiche Operation 75 mal weniger Energie benötigen im Vergleich zu Python.
https://thenewstack.io/which-programming-languages-use-the-least-electricity/
Stimmt was Du sagst. Aber im wissenschaftlichen Umfeld werden zu Phyton noch C-Bibliotheken genutzt. Was dies wieder kompensiert. Seien wir mal ehrlich wer will heute C nutzen wenn andere Sprachen viel einfacher zu lernen sind. Schon allein die Speicherverwaltung überfordert Anfänger, wie teilweise auch Profis, wollen die nur nicht so gerne zugeben. Nicht umsonst wird im Linux Kernel immer mehr Rust verwendet, soweit es schon möglich ist.
https://www.wackerart.de/c.html
Natürlich, Alles hat seine Vorteile und seine Nachteile. Python ist halt im KI Bereich sehr dominant, eigentlich aus historischen Gründen. Vor Allem deshalb, weil es da eine Vielzahl für die Algorithmen der neuronalen Netzwerke nötigen Bibliotheken, die sich über viele Jahre bewehrt haben, bereits gab. Man kommt so einfach viel schneller und damit kostengünstiger zum Ziel als wenn man Alles von null aufbauen müsste. Der Preis dafür ist die überschaubare Performance und hoher Energiebedarf. Python ist ja im Vergleich zu nativen Programmiersprachen auch nicht gerade performant. Was aber im KI Bereich bisher jedenfalls keine große Rolle gespielt hatte. Ob ich jetzt ein Modell 10 Tage trainiere oder nur 1 Tag ist aus wirtschaftlicher Sicht für den Betreiber nicht entscheidend, wenn man von einem kommerziellen Einsatz des trainierten Models über viele Jahre hinweg ausgehen kann.
Hier spielt also der Konkurrenzdruck eine wichtige Rolle. Als Betreiber kann man sich unter Konkurrenzbedienungen eine gründliche Neuentwicklung kaum leisten. Lieber nimmt man eine zu wünschen übrig lassende Performance und enormen Energiebedarf in der Trainingsphase (!) in Kauf und investiert in leistungsstarke Hardware um dagegen zu kompensieren. In dieser Kalkulation spielten Überlegungen zu Effizienz und Nachhaltigkeit, bisher keine große Rolle.
Zur Zeit trainiert man mehrschichtige Modelle neuronaler Netzwerke in der Regel auf GPUs hinter einer Virtualisierungslösung (in der Cloud). Darüber hinaus nimmt man eine virtualisierte Hochsprache (Pyhton) zur Steuerung des Trainingsprozesses. Alles in einem entsteht ein gewaltiger Overhead an Anforderungen an die Hardware. Ein wesentlicher Teil der potentiellen Leistung wird für das Betreiben der Software aufgebraucht und nur ein geringer Teil für die eigentliche Trainingsaufgabe.
Wenn man jetzt eine KI bauen wöllte, mit dem Vorsatz dabei die maximale Effizienz und damit den minimalsten Energie- und Ressourcenbedarf zu erreichen, dann wäre die hypothetisch Optimale Lösung eine hardwarenahe Softwarelösung auf hochspezialisierter Hardware.
Das hieße man müsste speziell dafür erstmal spezialisierte Hardware entwickeln und mit einer Trainingssoftware betreiben, welche in der nativer Sprache der Hardware realisiert und auf das wesentliche reduziert wurde.
Eine solche Lösung wäre zunächst deutlich performanter. Die gleiche Trainingsaufgabe würde es in einem Bruchteil der Zeit schaffen, welche eine vergleichbar skalierte Cloud-Lösung bieten könnte. Der Energiebedarf würde auch deshalb für die gleiche Aufgabe viel geringer ausfallen.
Wenn man es also wirklich wöllte, könnte man das ganze gründlich angehen, und den Energiebedarf eines KI Systems signifikant senken. Doch das ist mit einem hohen Forschungseinsatz und Investitionen verbunden.
“Das hieße man müsste speziell dafür erstmal spezialisierte Hardware entwickeln und mit einer Trainingssoftware betreiben, welche in der nativer Sprache der Hardware realisiert und auf das wesentliche reduziert wurde.”
Dazu bräuchtest Du Programmierer die überhaupt ein Interesse daran hätten und das entsprechende Wissen und können. Wenn man aber Android anschaut und nur eine einfache App programmiert, die nicht Hardwarenah ist. Ist es erstaunlich, wieviel Abhänigkeiten da wieder auftauchen. Google sagt ja selber in den zwei Kursen zum Programmieren mit Kotlin, das man lieber nicht die Beispiele nach Möglichkeiten auf den neusten Stand bringt. Da ansonsten diese gar nicht mehr lauffähig sind.
Was Dir vorschwebt wird höchstens noch im Embedded Bereich gemacht. Vielleicht noch Bereiche auf denen es auf Performence ankommt. Bei Projekten da wirklich noch Geld in die Hand genommen wird. Wo ältere Programmierer arbeiten, die das nicht anders kennen. Heute ist die Hardware größsten teils so billig, das die Programmierung die meisten Ressourcen verschlinkt. Die Software so komplex das immer mehr Zeit fürs Fehlersuchen und Testen drauf geht. Teilweise muß diese komplett neu aufgesetzt werden und da schaut der Aufragnehmer wiederum auf Geld.
Viele meinen einfach es wird ein paar Zeilen heruntergeschrieben. Das Refaktoring, Debuggen, Laufzeitkontrolle, Testen, Dokumentation etc. noch viel zeitaufwendiger ist, will keiner wissen. Am Ende bleibt das von Dir geforderte einfach Wunschdenken oder große Firmen werden das stemmen, auf kosten der kleineren. Die die Algorithmen nicht so effizient machen können. Weil das Wissen fehlt, das entsprechende qualifizierte Personal oder die Kosten ausufern würden. Leute die Phyton, Java / Kotlin und dergleichen programmieren können gibt es genug, gefragter sind aber C, C++ oder Assembler Sprachen und da ist der Markt eher leer gefegt.
Das ist nicht nur UI, die AI Modelle sind häufig in python realisiert, das hat viele Gründe aber in erster Linie wie schon gesagt, einfach weil es besonders bequem ist. Man hat damit relativ schnell und einfach ein Model gebaut weil schon Vieles dafür notwendige allgemein verfügbar ist und python auch besonders zugänglich ist.
Hier ist ein Artikel dazu warum eigentlich ausgerechnet python
https://www.edoxi.com/studyhub-detail/why-python-is-best-for-artificial-intelligence
Die Quintessenz daraus:
Python has emerged to be the widely used AI programming language due to its plenteous uses. The codebase is readable, and the application remains maintainable simultaneously. Considering a number of factors, a professional can undoubtedly state that python is the best programming language for Artificial Intelligence and Machine Learning projects.
Aus der Sicht der wirtschaftlichen Produktivität wohlgemerkt mag python als die Beste Wahl erscheinen, jedoch nicht unbedingt aus eine Perspektive, welche Performance und Nachhaltigkeit als einen erstrebenswerten Faktor einschließt.
Man kann mit Python mit vorhandenen tools relativ einfach und schnell ein AI Modell aufziehen, da es dafür eine große Anzahl von Frameworks gibt. Aber Python ist eine hohe Programmiersprache und setzt alleine dadurch schon viele Schichten oberhalb der Hardwareschicht voraus als ein Modell welches in einer für die Hardware nativen Sprache voraussetzen würde. Eine hardwarenahe Softwarelösung für die Realisierung des Models wäre zweifelsohne energiesparender. Schon deshalb weil es kein Betriebssystem hochfarhen muss, welches in seinem Kern eigentlich für andere Aufgaben designt wurde und eigentlich zu viel Overhead mitbringt als nötig wäre.
In Python wird die Beschreibung des Modells des Netzwerkes realisiert. Das ist eine Beschreibung in der Form “Ich brauche ein Neuronales Netzwerk im Format 512×512 mit einer Tiefe von 5000”.
Python erzeugt daraus eine Tabelle (eine Matrix) mit 1.3 Mrd Zellen und befüllt diese Tabelle mit Zufallszahlen. Das Training erfolgt dann auf spezieller Hardware (jedenfalls im Idealfall). Die spezielle Hardware kann zum Beispiel eine Schicht der Matrix in einer Rechenoperation ausführen, also Millionen von Multiplikationen mit Fließkommazahlen gleich durchführen.
Python spielt deshalb eine so große Rolle, weil Python sehr gut beim Aufbereiten der Trainingsdaten ist. Die Trainingsdaten müssen zum Beispiel normalisiert und skaliert werden. Dabei ist numPy ziemlich hilfreich. Aber diese Aufbereitung findet nur einmal statt und ist energetisch nicht von Bedeutung (wenn auch der eigentliche teure Part beim Erstellen eines Neuronalen Netzwerkes).
Andere denkbare Werkzeuge sind R (sehr gut bei statistischen Daten, Mau bei Texten) oder Matlab (Schwierig bei Gigabytes von Daten). Aber wie schon gesagt, ist nur ein Werkzeug der Daten-Vorverarbeitung.
Gut dann wäre das geklärt, habe nicht vor das Thema weiter auszuführen, da das hier kein Fachforum zu IT oder Programmieren ist.
Gut dann wäre das geklärt, habe nicht vor das Thema weiter auszuführen, da das hier kein Fachforum zu IT oder Programmieren ist.
Die spezialisierte Hardware existiert bereits. Tesla Grafikkarten zum Beispiel. Das sind Karten die GPUs benutzen, aber zur Berechnung von Matrixen benutzt werden und keinen Monitorausgang mehr haben.
> gängigsten Implementierungen neuronaler Netzwerke sind mit der Programmiersprache Python realisiert
Nein, das ist nur das Frontend. Das KI-Backend ist eine n-dimensionale Matrix, die mit hocheffizienten Befehlen auf einer spezialisierten (Grafik)karte berechnet wird. Angesprochen wird die Grafikkarte über eine in C/C++ geschriebene Middleware, z.B. Tensorflow.
Solange sich der Algorithmus nicht ändert, gibt es aktuell kaum Optimierungsmöglichkeiten. Ok, man kann die Rechenkerne kleiner machen, aber auch da kommt man an physikalische Grenzen. Da es einen deutlichen Trend zu größeren NNs gibt, wird sich der Stromverbrauch in Zukunft deutlich steigern.
Ja, es gibt Optimierungspotential.
1. Z.B. dadurch, dass KI (oder neuronale Netzwerke) auf der “Metaebene” eingesetzt werden, d.h. die KI (oder das neuronale Netzwerk) löst nicht ein Problem P, sondern es entwirft einen möglichst effizienten Algorithmus zum Lösen des Problem P. Anschließend wird dann der effiziente Algorithmus jeweils zur Lösung von P verwendet (vgl. “Assembler-Spiele” mit denen eine “Verbesserung” bei ein paar Implementierungen von Sortieralgorithmen gefunden worden sind). Das neuronale Netzwerk bzw. die KI kann dann nach erfolgter Arbeit (Entwurf des Algorithmus zum Lösen von P) entweder “weggeworfen” werden oder es kann versucht werden, das neuronale Netzwerk (bzw. die KI) für verwandte Probleme (Entwurf von effizienten Algorithmen zum Lösen von anderen Problemen, welche z.B. mit P verwandt sind) wiederzuverwenden.
2. Neuronale Netzwerke und KI (außerhalb von Forschungszwecken) nur dann verwenden, wo dieses unbedingt notwendig ist. Für die Berechnung des Ergebnis von 1+1 oder n! (n Fakultät) und andere Dinge muss man eigentlich keine KI oder neuronales Netzwerk verwenden (und schon gar kein neuronales Netzwerk mit mehreren Millionen oder Milliarden Neuronen).
3. Nehmen wir an, dass zur Erstellung einer Ausgabe zu einer Eingabe genau einmal ein neuronales Netzwerk durchlaufen wird (d.h. es existiert keine Feedback-Schleife und es wird nicht iterativ aus der initialen Eingabe eine Ausgabe erzeugt, bei der alle Neuronen der diversen Schichten mehrmals verwendet werden, sondern eben jedes Neuron genau einmal). Sofern dann mehrere Neuronale Netzwerke (NN) mit einer unterschiedlichen Anzahl von Neuronen ein Problem lösen können (oder eine “sehr gute” Ausgabe zu einer Eingabe erzeugen können), so sollte möglichst das NN mit den wenigsten Neuronen verwendet werden. In den Fällen in denen neuronale Netzwerke nun für die Erzeugung einer Ausgabe aus einer Eingabe dagegen rekursiv (oder iterativ) vorgehen und dadurch ein Teil der initialen Ausgabe (beim ersten Durchlauf des Neuronalen Netzwerkes) wieder als Eingabe (Input entweder auf der initialen Schicht oder späteren Schicht) verwendet wird, so verhält es sich ähnlich, aber dann wäre eben jedes Neuron, welches zur Erzeugung der Ausgabe mehrfach genutzt wird, dann auch mit der Anzahl der Verwendungen (zur Erzeugung der Ausgabe)zu multiplizieren, um dann so zu bestimmen, welches NN (aus einer Menge von NNs) nun die wenigsten Neuronen zur Erzeugung der Ausgabe benötigt, wobei dann ein solches NN möglichst später im Produktivbetrieb verwendet werden sollte. D.h. wenn z.B. zwei Chatbots einer mit 100 Milliarden Neuronen und einer mit 1 Millionen Neuronen qualitativ gleichwertige Ergebnisse beim “chatten” erreichen, sollte natürlich möglichst der Chatbot mit nur 1 Millionen Neuronen verwendet werden.
4. Anfragen an ChatGPT (oder auch DeppGPT) und andere Large Language Modelle nur stellen, wenn dieses unbedingt nötig ist und eben nicht auf eine andere (energieeffizientere) Art und Weise eine Antwort erhalten werden kann.
ps. Ein NN mit fantastilliarden¹ Neuronen (und genügend Schichten) wird natürlich auch die Probleme lösen können, welches ein NN mit “nur” einer Millionen Neuronen lösen kann, nur für viele Probleme ist ein NN mit fantastilliarden Neuronen eben gar nicht nötig, sondern ein NN mit weit weniger Neuronen würde es eben auch tun. Nur die Anzahl der Neuronen hat natürlich auf den “Energieverbrauch” zur Berechnung eines Ergebnisses einen nicht unerheblichen Einfluss.
pps. Diejenigen mit ein paar Informatikkentnissen (und auch Kenntnisse von (logischen) Schaltkreisen) können natürlich gerne in diesen Beitrag beim Lesen NN durch Schaltkreis und Neuron durch “logisches Gatter” ersetzen (bzw. sich zumindest die Ähnlichkeiten zwischen beidem klar machen).
¹) Ja, mir ist bewußt dass es keine Größenangabe “fantastilliarden” wirklich gibt.
Und selbst da kommt der marxistische Materialismus durch die Hintertür. Glaube ist eben besser als überlegen – vor allem bei “Linken”.
Aussage “Die lange geglaubte Immaterialität des Geistes ist eine Chimäre, “. SOSO. Un das meinen Sie, bewiesen zu haben?
Wenn Sie Musik von einem Digitalrekorder erklingen lassen braucht das auch einige Energie. Die wenigste um die Musik abzulesen – die meiste, UM SIE ZU VERSTÄRKEN.
Ihre bescheuerte Rechnung über den Energieverbrauch des Gehirns zeigt nur eines: dass da Aktivität ist. Welcher Art können Sie daraus nicht ableiten.
Soviel zur marxismusverseuchten Blödheit unserer Zeit(Genossen).
Wenn ein Mensch die Existenz von immateriellem Geist, von unerklärlicher (Selbst-)Bewusstheit ableugnet, hat er schon einen Teil seiner Menschlichkeit abgelegt. Wer das eigene, innerste Erfahren nicht wahrhaben will, hat sich selbst als Mensch abgeschrieben. Und damit auch jegliche nichtfunktionale Begründung für Ehre, Anstand, Moral – und WÜRDE!
Davon abgesehen, dass “Digitalisierung” nichts weiter ist als irrsinniger Ressourcenverbrauch (der durch angeblich effizienter eingesetzt Energie nichts als billigst geschönt wird) ist eine für alle offensichtliche Binsenweisheit. All die Antennen, die da überall herumstehen, brauchen natürlich Energie. Auch die Information, die durch Glasfasern geschickt werden, sind Energie-getrieben, überall müssen Verluste durch Verstärker ausgeglichen werden. Nicht nur die Serverfarmen brauchen viel Strom – auch all die ständig laufenden Heimrouter, Fritz- und sonstige -boxen, “Repeater”, Ladegeräte, … – und nicht zuletzt all die digitalen Endgeräte zu Hause.
Dass niemand laut “Aua!” schreit angesichts von Politikern und “Eliten”, die auf der einen Seite CO2-Verzicht predigen, auf der anderen Seite Digitalisierung und Globalisierung ausrufen und zur Staatsagenda machen, spricht für die massive Verblödung allerseits – und solche Seiten wie diese hier sind ein Puzzleteilchen der allgemeinen Verblödungsmaschinerie.
Und wer nicht an Gott glaubt, kommt in die Hölle oder was? Wer den immateriellen Geist leugnet, leugnet doch nicht den Geist. Das heißt nur, dass der Geist eine materielle Grundlage hat, die ihn inhaltlich nicht bestimmt. So wie Gedanken bzw. Sprache materiell als Text in einem Buch oder einer Internetseite auf dem PC festgehalten werden können. Immateriell – also ohne Buch oder PC geht es nicht. Aber die Materie (Buch, Pc) bestimmt nicht den Inhalt. Der Geist ist nicht identisch mit der Materie, in der er erscheint oder zum Ausdruck kommt. Insofern ist Geist immateriell, aber dieser immaterielle Geist benötigt eine materielle Grundlage, sonst gibt es ihn nicht.
Seltsamerweise sind für Sie moralische Werte der Inbegriff von Geist. Denken, schließen, urteilen – also die eigentliche Geistestätigkeit halten sie jedenfalls nicht für erwähnenswert.
“auf der anderen Seite Digitalisierung und Globalisierung ausrufen und zur Staatsagenda machen, spricht für die massive Verblödung allerseits” Eigentlich spricht das nur dafür, dass Profit über alles geht. Digitalisierung und KI sind einfach Methoden um bezahlte Arbeit überflüssig zu machen und dadurch die Profite zu erhöhen. Wohlgemerkt bezahlte Arbeit. Wenn der Endkunde, wenn er beim Telefon- oder Stromlieferanten, oder bei der Bank anruft, erstmal ne gute Stunde in der Leitung hängt bevor er eine lebendige Person am Hörer hat, spielt das keine Rolle, denn die Zeit des Endkunden muss ja nicht bezahlt werden.
Selten so eine blöde Replik gelesen. Was Sie alles bei mir hineindeuten können. Warum schreiben Sie nicht einfach selbst ihre Kommentare auf die Sie dann selbst “antworten”? Dann passt es auch.
Die Frage nach dem wohin der Seele nach dem Tod haben Theologen schon frühzeitig geklärt. Offen blieb zunächst die Frage nach dem Vorher. Man kam auf die Präexistenz der Seele. Unklar ist aber, Wann sie in die Materie schlüpft, bei der Geburt, bei der Vereinigung von Sperma und Eizelle oder noch früher, beim Vögeln?
Also KI als KLIMAKILLER !
– Ressourcen die der Mensch verbrauch – natürliche Intelligenz ( oder auch nicht )
– Ressourcen die die KI verbraucht = DOPPELVERBRAUCH für ein die selbe Sache
WO BLEIBT DA DER KLIMASCHUTZ ?
Das ist wie mit der KfZ-Steuer
– Autobahn GmbH wird mit Besteuerung nach Kubik bezahlt
– Die BRD holt sich sein Anteil nach CO2-Steuer
Oder CO2 Zertifikate – Es geht nicht darum durch eben diese Zertifikate die Ausgeteilt werden um den Ausstoß
von Klimaschädlichen Stoffen zu reduzieren, sondern um den HANDEL/Verkauf dieser.
Nur mal so gerechnet: D und A drangsalieren ihre Bürger damit ihnen immer mehr Zertifikate ÜBERBLEIBEN
um diese an bedürftige Lieferanten zu verkaufen – die wiederum auch durch den globalen Handel erpresst werden – die Gewinne zu maximieren.
Das dabei inzwischen mehr als die Hälfte der Wälder weltweit in den letzten 30J abgeholzt wurden
Interessiert niemanden!! Gilt für die gesamte Bodenressourcen.
Und ich sage immer wieder – so verblödet wie diese Menschheit inzwischen geworden ist – wirds nicht besser
sondern immer schlechter – für den Bürger.
Und wie dumm manche Bürger sind – siehe Beitrag von der Ami-Tusi.
Du hast CO2-Zertifikate nicht verstanden. Der Trick bei den Zertifikaten ist nicht der Handel, sondern das die Gesamtmenge an Zertifikaten zu einem bestimmten Zeitpunkt begrenzt ist UND jedes Zertifikat parallel zum zertifizierten Ausstoß von CO2 ungültig wird.
Der Handel ist nur der Verteilungsmechanismus. Man könnte alternativ auch eine CO2-Ausgabe-Behörde schaffen, die dann nach schriftlichen Antrag mit drei Kopien irgendwann ein Zertifikat ausstellt. Das gleiche Ergebnis, aber ein deutlich teurerer Verteilungsmechanismus.
Das mit den Wäldern ist übrigens ebenfalls Quatsch. Tatsächlich sind die Wälder in Europa, Asien, Amerika (ok nicht in Pakistan) am Wachsen und auf dem gesamten Planeten nimmt die Fauna zu. Ehemalige Wüstengebiete werden wieder grün. So wie jedes mal in der Geschichte, wenn eine neue Warmzeit anstand.
Klimaschutz wird nicht funktionieren. Unter anderem deshalb, weil die Klimaschutz-Gläubigen die Realität nicht sehen können und selbst einfachste Fakten falsch verstehen.
Du magst zwar was von Bits und Bytes verstehen, aber wie man Geld verdient – eine absolute null.
KI eine Abbildung von dir? Deshalb geht alles den “Bach” runter. Solltest mal mit nützlicher Arbeit
versuchen – regt gewöhnlich das Denken an.
Hast Du mehr drauf als hier Stuhlgang zu verteilen?
Man muss gar nicht in die USA, die Umgebung von Frankfurt wird heute schon massiv durch Rechenleistung aufgeheizt, wie ein c’t-Artikel neulich berichtete. Dort ist der DE-CIX Knoten, einer der größten Internetknoten der Welt und ja, von hier aus wird der ganze Traffic erst mal in die USA geschafft, damit die NSA mitlesen kann. Was oft nicht gesehen wird: KI wird natürlich in großem Stil von Banken eingesetzt, um Extraprofite zu generieren.
Die Abluft ist zwischen 55 und 100 Grad warm. Somit kaum nutzbar, denn selbst bei 100 Grad hat ein Stirlingmotor einen theoretischen Wirkungsgrad von 22 Prozent. Der dann durch den mechanischen Wirkungsgrad nochmal verschlechtert wird.
Es ließe sich aber etwas machen. Die Hoffnungen ruhen auf dem hochgeheimen Apparat, den ich eben in meiner Garage in der Entwicklung habe. Der Moment des Scheiterns ist noch nicht eingetreten.
“Die Abluft ist zwischen 55 und 100 Grad warm.” Man muss ja keinen Stirlingmotor damit betreiben. Man könnte das auch als Heizwärme nutzen (natürlich nicht in der Wüste, wo es draußen fast genauso heiß ist und auch niemand wohnt). Um die Temperatur zu erhöhen lassen sich auch Wärmepumpen einsetzen, die bei so relativ hohen Temperaturen gut funktionieren. Ja es gibt Verluste, aber doch besser als die Energie ganz ungenutzt zu lassen.
Zum Artikel: “Nach dem Umweltbericht von Google hat der Konzern 2022 über 12 Milliarden Liter (21.198.305.990) Wasser verbraucht.” Ist das ein Zahlendreher? Sind es 21 Milliarden Liter?
Man sollte bei Wasser, wenn es um große Mengen geht, nicht Liter sondern m³ Kubikmeter benutzen. 700 000 Liter sind 700 m³. Das ist nicht so gigantisch, wenn man mal mit dem eigenen Wasserjahresverbrauch vergleicht. Wer Liter benutzt will, dass es nach viel aussieht.
Verstanden, aber wo soll man dann mit der entstandenen Wärme oder Kälte hin? Die müsste man über Rohrleitungen transportieren. Das ist in den allermeisten Fällen nicht zu machen.
Worauf ich letztlich hinaus will: ein Verfahren, mit dem man dann mit möglichst wenig Energieeinsatz aus den 100 Grad 200 oder mehr macht. Bei 200 Grad läge der theoretische Wirkungsgrad schon mal bei 38 Prozent.
Ansonsten: Zutimmung.
Ja, über ein Rohrleitungsnetz. Aber da das neue Heizungsgesetz in D die Kommunen verpflichten will, solche kommunalen Wärmenetze anzubieten, scheint das ja nicht so aus der Welt zu sein. So eine Nutzung muss man eben gleich von Anfang an mit in die Planung der Rechenzentren einbeziehen und Rechnerkühlung und Abwärmenutzung aufeinander abstimmen. Wenn man zuerst das eine baut und sich dann fragt, wo mit der Abwärme hin – wird’s natürlich schwieriger. Auch der Standort ist entscheidend. Denn die Wärme wie beim Strom durch die ganze Republik zu transportieren, das geht natürlich nicht.
Das ist ja Habecks große Hoffnung: überall Knoten und Schleifen und mit der Anwärmen vollzieht Deutschland die Energiewende.😂