Der Stromverbrauch von ChatGPT hat eine hitzige Debatte ausgelöst, denn eine Suchanfrage soll zehnmal so viel Strom verbrauchen wie bei Google. Laut einer aktuellen Studie könnten die bisherigen Einschätzungen jedoch übertrieben sein.
Experten gehen davon aus, dass eine Anfrage an ChatGPT ein Vielfaches mehr Energie verbraucht als eine Suchanfrage bei Google. Laut einer oft zitierten Studie aus dem Jahr 2023 verbraucht ChatGPT für eine einzige Antwort rund 2,9 Wattstunden Strom, während eine Suchanfrage bei Google nur etwa 0,3 Wattstunden benötige. Hochgerechnet auf ein Jahr ergäbe das einen Energieverbrauch von 227 Millionen Kilowattstunden. Das wäre genug, um kleine Staaten wie Gibraltar ein Jahr lang mit Strom zu versorgen.
Eine neue Untersuchung des Forschungsinstituts Epoch AI zeigt jedoch, dass diese Werte möglicherweise stark übertrieben sind. Die Forscher führten aktuelle Messungen durch und kamen zu dem Schluss, dass eine Standardanfrage an ChatGPT ebenfalls „nur“ 0,3 Wattstunden verbrauche – also exakt so viel wie eine Google-Suche. Die drastische Abweichung zur früheren Schätzung ließe sich durch effizientere Hardware und optimierte Modelle erklären.
ChatGPT: Stromverbrauch hängt von Interaktion ab
OpenAI hat seit 2023 erhebliche Fortschritte bei der Energieeffizienz gemacht, unter anderem durch verbesserte Rechenzentren und eine optimierte Nutzung von Token, den kleinsten Verarbeitungseinheiten innerhalb der KI. Der tatsächliche Stromverbrauch hängt jedoch stark davon ab, wie Nutzer mit ChatGPT interagieren.
Während einfache Textanfragen im Bereich von 0,3 Wattstunden liegen, können längere oder komplexere Eingaben laut Studie schnell bis zu 2,5 Wattstunden benötigen. In extremen Fällen, etwa bei aufwendigen Berechnungen oder der Verarbeitung gigantischer Datenmengen, liegt der Verbrauch für eine Anfrage sogar bei bis zu 40 Kilowattstunden. Das entspricht dem doppelten Stromverbrauch eines durchschnittlichen US-Haushalts pro Minute.
Suchmaschinen setzen zunehmend auf KI
Trotzdem zeigt die neue Studie, dass der Energieverbrauch von KI-Anwendungen differenzierter betrachtet werden sollte. Zwar sind leistungsstarke KI-Modelle wie ChatGPT energieintensiv, doch moderne Optimierungen sorgen dafür, dass sie nicht zwangsläufig mehr Strom verbrauchen als herkömmliche Suchmaschinen.
Da auch Google verstärkt KI-gestützte Suchtechnologien einsetzt, dürfte sich der Energiebedarf in Zukunft immer weiter annähern. Die Diskussion über den Stromverbrauch von künstlicher Intelligenz bleibt aber weiterhin aktuell. Während ChatGPT und ähnliche Modelle enorme Rechenleistungen benötigen, arbeiten Entwickler kontinuierlich daran, die Technologie effizienter zu gestalten. Langfristig könnte der Strombedarf also sinken, während KI-Anwendungen gleichzeitig leistungsfähiger werden.
Auch interessant:
Selbst wenn. Chatgpt spart einiges an Zeit beim Suchen und Bedarf auch häufig keiner weiteren Recherchen auf Fomgeseiten. Eine Anfrage mag mehr verbrauchen, dafür braucht man weniger Anfragen und Zeit. Und wenn ich auf meinem PC arbeite, sind 2,9 Wh schnell weg.