KI muss kleiner werden und den Energieverbrauch senken: Studie. 08/07/2025
- Ana Cunha-Busch
- 7. Juli
- 2 Min. Lesezeit

Von AFP – Agence France Presse
KI muss kleiner werden und den Energieverbrauch senken: Studie
PARIS: Das Potenzial künstlicher Intelligenz ist immens – doch ihr ebenso enormer Energieverbrauch muss gedrosselt werden. Eine Möglichkeit, dies zu erreichen, ist laut einer am Dienstag (8. Juli) veröffentlichten UNESCO-Studie, kürzere Fragen zu stellen.
Eine Kombination aus kürzeren Abfragen und der Verwendung spezifischerer Modelle könnte den Energieverbrauch von KI um bis zu 90 Prozent senken, ohne die Leistung zu beeinträchtigen, so die UNESCO in einem Bericht, der anlässlich des globalen Gipfels „AI for Good“ in Genf veröffentlicht wurde.
OpenAI-CEO Sam Altman gab kürzlich bekannt, dass jede Anfrage an die beliebte generative KI-App ChatGPT durchschnittlich 0,34 Wh Strom verbraucht, was dem 10- bis 70-fachen einer Google-Suche entspricht.
ChatGPT erhält täglich rund eine Milliarde Anfragen, was einem jährlichen Stromverbrauch von 310 GWh entspricht. Dies entspricht beispielsweise dem jährlichen Stromverbrauch von drei Millionen Menschen in Äthiopien.
Darüber hinaus berechnete die UNESCO, dass sich der KI-Energiebedarf alle 100 Tage verdoppelt, da generative KI-Tools zunehmend in den Alltag integriert werden.
„Der exponentielle Anstieg der Rechenleistung, die für den Betrieb dieser Modelle benötigt wird, belastet die globalen Energiesysteme, Wasserressourcen und kritischen Mineralien zunehmend und weckt Bedenken hinsichtlich der ökologischen Nachhaltigkeit, des gerechten Zugangs und des Wettbewerbs um begrenzte Ressourcen“, warnte der UNESCO-Bericht.
Durch die Verkürzung der Abfragelänge sowie den Einsatz einer kleineren KI konnte der Stromverbrauch jedoch um fast 90 Prozent gesenkt werden, ohne dass es zu Leistungseinbußen kam.
Viele KI-Modelle wie ChatGPT sind Allzweckmodelle, die auf eine Vielzahl von Themen reagieren sollen. Das bedeutet, dass sie eine immense Menge an Informationen verarbeiten müssen, um Antworten zu formulieren und zu bewerten.
Der Einsatz kleinerer, spezialisierter KI-Modelle ermöglicht eine deutliche Reduzierung des Stromverbrauchs für die Reaktionszeit.
Dies gilt auch für die Reduzierung der Eingabeaufforderungen von 300 auf 150 Wörter.
Da sich die Technologieriesen des Energieproblems bereits bewusst sind, bieten sie mittlerweile Miniaturversionen ihrer jeweiligen großen Sprachmodelle mit weniger Parametern an.
Beispielsweise verkauft Google Gemma, Microsoft Phi-3 und OpenAI GPT-4o mini. Französische KI-Unternehmen haben dasselbe getan; Mistral AI hat beispielsweise sein Modell Ministral vorgestellt.
dax/cw/rl





Kommentare