Danke sagen bei ChatGPT kostet Millionen und Energie: Die verborgene Last der KI-Höflichkeit

ChatGPT Logo
Quelle: OpenAI

Hallo Du, um keine News zu verpassen abonniere doch einfach kostenlos meine Kanäle, vielen Dank:

Künstliche Intelligenz-Systeme benötigen keine Höflichkeitsformeln. Dennoch nutzen viele Anwender gegenüber Chatbots wie ChatGPT weiterhin Wörter wie „Bitte“ oder „Danke schön“. Für die Betreiber dieser KI-Systeme scheint dieses menschliche Verhalten jedoch einen überraschend hohen Kostenfaktor darzustellen.

Menschen sind es gewohnt, sich zu bedanken, wenn ihnen jemand Arbeit abnimmt. Deshalb überrascht es kaum, dass Nutzer auch den immer menschlicher interagierenden KI-Chatbots mit Gesten der Höflichkeit begegnen. Viele fügen ihren Anfragen unnötig ein „Bitte“ hinzu. Andere quittieren das generierte Ergebnis mit einem „Danke schön“.

Die wenigsten Nutzer bedenken dabei die unsichtbaren Konsequenzen ihres Handelns. Jeder einzelne Informationsaustausch mit einer künstlichen Intelligenz verursacht beträchtliche Energiekosten und damit auch umweltschädliche CO2-Emissionen. Ein User des Dienstes X (ehemals Twitter) stellte sich daher öffentlich die Frage: Was kosten die gut gemeinten Höflichkeitsfloskeln der Nutzer den ChatGPT-Entwickler OpenAI wohl pro Jahr?

Er erhielt eine bemerkenswerte Antwort von höchster Stelle. Niemand Geringeres als OpenAI-Chef Sam Altman persönlich bestätigte die Befürchtung des X-Nutzers. Allein die Verarbeitung und Beantwortung von Wörtern wie „Bitte“ und „Danke“ kostet OpenAI demnach zweistellige Millionenbeträge jährlich. Laut Altman sei dieses Geld jedoch gut investiert. Er fügte humorvoll hinzu: Man könne ja nie wissen. Damit spielte der Unternehmer offenbar auf die verbreitete Befürchtung vieler KI-Kritiker an, dass die Maschinen sich eines Tages gegen ihre menschlichen Schöpfer wenden könnten. Ob ein wenig Höflichkeit an dieser, nach Ansicht vieler Experten durchaus realen, Gefahr etwas ändert, bleibt allerdings fraglich.

So locker Sam Altman die Frage nach dem Energieverbrauch auch beantwortete, das zugrundeliegende Thema ist in der Praxis sehr ernst. Offizielle Zahlen zum Energieverbrauch ihrer riesigen KI-Rechenzentren halten OpenAI und konkurrierende Firmen bisher zurück. Allerdings haben verschiedene Institutionen versucht, Schätzungen zu erstellen und diese ins Verhältnis zu setzen. Die Washington Post berichtete beispielsweise Ende 2024 über Berechnungen der Universität von Kalifornien. Demnach verbraucht die Generierung einer KI-E-Mail mit einem Umfang von hundert Worten etwa 0,14 Kilowattstunden Strom. Zusätzlich benötigt der Prozess 518 Milliliter Kühlwasser.

Nimmt man hypothetisch an, dass zehn Prozent der erwerbstätigen Bevölkerung in den USA (rund 16 Millionen Menschen) pro Woche eine 100-Wort-E-Mail von ChatGPT erstellen lassen, dann summiert sich der jährliche Verbrauch erheblich. Das wären 120.000 Kilowattstunden Strom und 435 Millionen Liter Wasser pro Jahr. Laut dem Bericht entspricht dieser Stromverbrauch dem Energiebedarf aller Haushalte in Washington D. C. für zwanzig Tage. Es gleicht zudem dem Wasserverbrauch des Bundesstaates Rhode Island innerhalb von anderthalb Tagen. Diese Berechnungen berücksichtigten dabei nicht die klimaschädlichen CO2-Emissionen. Diese dürften entsprechend hoch ausfallen.

Dem Umwelt zuliebe kann es also durchaus sinnvoll sein, sich bei ChatGPT seltener mit unnötigen Floskeln zu bedanken. Die KI wird Ihnen das aller Wahrscheinlichkeit nach nicht übel nehmen.

Quelle(n):
X/Twitter @tomieinlove | @sama via Computerbild


Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert