Sam Altman twierdzi, że ChatGPT zużywa zaledwie jedną piętnastą łyżeczki wody na zapytanie, prognozuje, że koszty AI wkrótce będą zgodne z cenami energii elektrycznej, ale brakuje metodologii

Sam Altman twierdzi, że ChatGPT zużywa zaledwie jedną piętnastą łyżeczki wody na zapytanie, prognozuje, że koszty AI wkrótce będą zgodne z cenami energii elektrycznej, ale brakuje metodologii

Wzrost sztucznej inteligencji (AI) nie słabnie, a firmy coraz częściej kierują zasoby do technologii AI i osadzają je w swoich ofertach. OpenAI, zwłaszcza od czasu uruchomienia ChatGPT, napędza wykorzystanie AI, inspirując wiele firm do poprawy dostępności i funkcjonalności. Jednak wraz z mnożeniem się aplikacji AI obawy dotyczące praktyk etycznych i konsekwencji środowiskowych stają się coraz bardziej widoczne. Niedawno Sam Altman, dyrektor generalny OpenAI, podzielił się spostrzeżeniami na temat zużycia zasobów związanego z tymi modelami AI.

Rozważania środowiskowe dotyczące sztucznej inteligencji: spostrzeżenia Sama Altmana

W miarę jak technologia AI staje się coraz bardziej powszechna, interesariusze — od deweloperów po zwykłych użytkowników — zadają pytania o implikacje jej etycznego wykorzystania i zrównoważonego rozwoju środowiska. W godnym uwagi wpisie na blogu Altman ujawnił konkretne dane dotyczące wody wymaganej do przeciętnego zapytania ChatGPT, co może zaskoczyć wielu.

W swoim wpisie na blogu zatytułowanym „The Gentle Singularity” wyjaśnił potencjał AI do przekształcania ram społecznych pod względem ekonomicznym, społecznym i, co znamienne, środowiskowym. Podczas gdy Altman podał kilka uderzających liczb, nie ujawnił zastosowanych metodologii ani czynników branych pod uwagę przy wyprowadzaniu tych statystyk. Według jego szacunków:

Średnie zapytanie ChatGPT zużywa około 0, 000085 galona wody, co odpowiada około jednej piętnastej łyżeczki.

Altman odniósł się również do zużycia energii, ujawniając dalsze spostrzeżenia na temat wymagań operacyjnych ChatGPT:

Ludzie często pytają o zużycie energii w przypadku pojedynczego zapytania ChatGPT; zużywa ono około 0, 34 watogodzin, co jest porównywalne z energią, jaką piekarnik zużywa w ciągu nieco ponad sekundy lub wysokowydajna żarówka w ciągu kilku minut.

Patrząc w przyszłość, Altman przewidywał, że w miarę rozwoju i zwiększania wydajności systemów AI, powiązane koszty prawdopodobnie znacznie spadną, potencjalnie dostosowując się do bazowych kosztów energii elektrycznej potrzebnej do obsługi wymaganego sprzętu. Zasugerował, że skalowanie operacji może być kluczem do osiągnięcia tych oszczędności. Jednak krytycy, w tym obrońcy środowiska, wyrażają sceptycyzm co do tego, czy szacunki Altmana odpowiednio odzwierciedlają rzeczywisty koszt zasobów zużywanych przez technologie AI. Pozostają pytania dotyczące zasadności liczby jednej piętnastej łyżeczki, zwłaszcza w przypadku braku wyraźnego wsparcia metodologicznego.

Dialog na temat zrównoważonego rozwoju technologii AI podkreśla znaczenie przejrzystości i odpowiedzialności w miarę rozwoju branży.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *