Mit GPT-4 nur 100 Wörter erzeugen kostet 3 Wasserflaschen
Die neueste Generation von künstlicher Intelligenz, GPT-4, hat erneut für Aufsehen gesorgt. Laut einem aktuellen Bericht benötigt die Erzeugung von nur 100 Worten durch den Sprachmodell-Algorithmen eine immense Energieleistung. Um genau zu sein, entspricht der Energieverbrauch etwa dem Verbrauch von drei Wasserflaschen. Diese schockierende Erkenntnis wirft Fragen über die Umweltauswirkungen dieser Technologie auf. Wie kann es sein, dass die Erzeugung von so wenigen Worten so viel Energie benötigt? Wir werden in diesem Artikel genauer auf die Hintergründe dieser Studie eingehen und die möglichen Konsequenzen für die Zukunft der künstlichen Intelligenz untersuchen.
Alarmierender Wasser- und Stromverbrauch bei der KI-Produktion
Vor einigen Jahren prahlten Technologieunternehmen mit ihren umweltfreundlichen Errungenschaften und ihren Zielen, bis 2030 CO2-neutral zu sein. Doch diese Ziele sind mit dem Aufkommen der Künstlichen Intelligenz (KI) in den Hintergrund gerückt. Ein Studie der Universität von Kalifornien, das von The Washington Post veröffentlicht wurde, hat besorgniserregende Daten erhoben.
Wasser- und Stromverbrauch von ChatGPT
Um nur 100 Wörter mit GPT-4 zu generieren, werden in einigen Bundesstaaten 1.408 Liter Wasser benötigt, das entspricht etwa drei 0,5-Liter-Flaschen. Wenn wir dies mit den hunderten Millionen Anfragen pro Tag bei ChatGPT von OpenAI multiplizieren, viele davon trivial oder absurd und von Menschen gestellt, die aus Neugier oder Langeweile heraus Fragen stellen, erkennen wir leicht das Umweltproblem, das die KI darstellt. Und das ohne den Stromverbrauch zu berücksichtigen.
Der Wasser- und Stromverbrauch von ChatGPT ist alarmierend. Wir haben in anderen Branchen gesehen, dass alle Welt den Umweltschutz liebt, solange es nicht mit ihren kommerziellen Ambitionen kollidiert. Dann wird das Thema Umweltschutz in den Hintergrund gedrängt.
Die Umweltziele der Tech-Giganten
2023 sind der Wasser- und Stromverbrauch in den Rechenzentren von Microsoft, Meta, Google, Amazon und Co. explodiert und machen ihre eigenen Umweltziele unmöglich. Die großen Sprachmodelle der KI (LLM), wie GPT oder Gemini, funktionieren durch die Verarbeitung von großen Datenmengen in der Cloud und erfordern enorme Rechenleistung durch Tausende von KI-Chips (meist von Nvidia), die in großen Rechenzentren gespeichert werden.
Der Wasser- und Stromverbrauch der Rechenzentren ist enorm. Nur um seine IA Llama-3 zu trainieren, hat Meta 22 Millionen Liter Wasser benötigt. Damit könnte man über zwei Tonnen Reis anbauen. Das Rechenzentrum, das Meta in Talavera de la Reina baut, wird 600 Millionen Liter Wasser pro Jahr benötigen, in einer Zone mit Wasserknappheit.
Die Aussagen der Tech-Giganten
Laut dem Studie von The Washington Post würde, wenn 10% der US-Amerikaner GPT nur einmal pro Woche nutzen, in einem Jahr die gleiche Menge an Strom wie alle Haushalte in Washington D.C. in 20 Tagen verbrauchen. Die Tech-Giganten betonen ihr Engagement für eine Reduzierung des Wasser- und Stromverbrauchs, aber keiner gibt konkrete Maßnahmen bekannt.
Die KI muss ihre Umweltauswirkungen reduzieren, bevor sie zu einem Mainstream-Tool wird. Die KI wird viele Vorteile bringen, aber sie muss finden, wie sie ihren Wasser- und Stromverbrauch reduziert, bevor es zu spät ist.
Schreibe einen Kommentar