Sam Altman behauptet, ChatGPT verbraucht pro Abfrage nur ein Fünfzehntel eines Teelöffels Wasser und prognostiziert, dass sich die KI-Kosten bald an die Strompreise anpassen werden, es mangelt ihm jedoch an der Methodik

Sam Altman behauptet, ChatGPT verbraucht pro Abfrage nur ein Fünfzehntel eines Teelöffels Wasser und prognostiziert, dass sich die KI-Kosten bald an die Strompreise anpassen werden, es mangelt ihm jedoch an der Methodik

Der Boom im Bereich Künstliche Intelligenz (KI) hält unvermindert an. Unternehmen investieren zunehmend in KI-Technologien und integrieren diese in ihre Angebote. OpenAI hat, insbesondere seit der Einführung von ChatGPT, die KI-Nutzung vorangetrieben und zahlreiche Unternehmen dazu inspiriert, Zugänglichkeit und Funktionalität zu verbessern. Mit der zunehmenden Zahl von KI-Anwendungen nehmen jedoch auch die Bedenken hinsichtlich ethischer Praktiken und Umweltauswirkungen zu. Kürzlich gab Sam Altman, CEO von OpenAI, Einblicke in den Ressourcenverbrauch dieser KI-Modelle.

Umweltaspekte der KI: Erkenntnisse von Sam Altman

Mit der zunehmenden Verbreitung von KI-Technologie stellen sich Interessengruppen – von Entwicklern bis hin zu Alltagsnutzern – Fragen zu den Auswirkungen ihres ethischen Einsatzes und ihrer ökologischen Nachhaltigkeit. In einem bemerkenswerten Blogbeitrag veröffentlichte Altman konkrete Daten zum Wasserbedarf einer durchschnittlichen ChatGPT-Abfrage, die viele überraschen dürften.

In seinem Blogbeitrag „Die sanfte Singularität“ erläuterte er das Potenzial der KI, gesellschaftliche Rahmenbedingungen wirtschaftlich, sozial und insbesondere ökologisch zu verändern. Altman präsentierte zwar einige beeindruckende Zahlen, gab jedoch weder die angewandte Methodik noch die Faktoren bekannt, die bei der Ermittlung dieser Statistiken berücksichtigt wurden. Seinen Schätzungen zufolge:

Eine durchschnittliche ChatGPT-Abfrage verbraucht ungefähr 0, 000085 Gallonen Wasser, was etwa einem Fünfzehntel eines Teelöffels entspricht.

Altman ging auch auf den Energieverbrauch ein und gab weitere Einblicke in die Betriebsanforderungen von ChatGPT:

Die Leute fragen oft nach dem Energieverbrauch einer einzelnen ChatGPT-Abfrage. Sie beträgt etwa 0, 34 Wattstunden – vergleichbar mit der Energie, die ein Backofen in etwas mehr als einer Sekunde verbraucht, oder der Energie, die eine Hochleistungsglühbirne in ein paar Minuten verbraucht.

Altman prognostizierte für die Zukunft, dass mit der Weiterentwicklung und Effizienzsteigerung von KI-Systemen die damit verbundenen Kosten voraussichtlich deutlich sinken und sich möglicherweise an die Grundkosten für den Strombedarf für die benötigte Hardware angleichen werden. Er schlug vor, dass die Ausweitung der Betriebsabläufe der Schlüssel zur Erzielung dieser Einsparungen sein könnte. Kritiker, darunter Umweltschützer, äußern jedoch Skepsis, ob Altmans Schätzungen die tatsächlichen Kosten der von KI-Technologien verbrauchten Ressourcen angemessen widerspiegeln. Es bleiben Fragen zur Gültigkeit der Zahl von einem Fünfzehntel Teelöffel, insbesondere mangels einer klaren methodischen Untermauerung.

Dieser Dialog über die Nachhaltigkeit von KI-Technologien unterstreicht die Bedeutung von Transparenz und Rechenschaftspflicht im Zuge der Weiterentwicklung der Branche.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert