Колькі энергіі спажывае ШІ? Распрацоўшчыкі дагэтуль хаваюць любыя лічбы
Буйныя тэхналагічныя кампаніі дагэтуль адмаўляюцца раскрываць, колькі энергіі рэальна спажываюць іх мадэлі штучнага інтэлекту. У той час як мільёны карыстальнікаў штодзённа звяртаюцца да такіх сэрвісаў, як ChatGPT, пытанне аб іх вугляродным следзе застаецца без адказу.
Буйныя тэхналагічныя кампаніі дагэтуль адмаўляюцца раскрываць, колькі энергіі рэальна спажываюць іх мадэлі штучнага інтэлекту. У той час як мільёны карыстальнікаў штодзённа звяртаюцца да такіх сэрвісаў, як ChatGPT, пытанне аб іх вугляродным следзе застаецца без адказу.
Генеральны дырэктар OpenAI Сэм Альтман нядаўна заявіў, што адзін запыт да ChatGPT нібыта спажывае 0,34 ват-гадзіны энергіі — прыкладна столькі, колькі выкарыстоўвае духоўка за секунду або энергазберагальная лямпа за пару хвілін. Аднак эксперты паставілі гэтую лічбу пад сумнеў. Па іх словах, Альтман не ўдакладніў, як менавіта была разлічана гэтая сярэдняя велічыня: ці ўключае яна генерацыю выяў, ахаладжэнне сервераў, энергазатраты на навучанне мадэлі і іншыя важныя фактары.
«Ён мог проста выдумаць гэтую лічбу», — пракаментавала Саша Лучыёні, эксперт па клімаце з кампаніі Hugging Face. На думку эксперта, без поўнай празрыстасці такія заявы не маюць практычнай каштоўнасці і хутчэй уводзяць грамадскасць у зман.
Праблема выходзіць далёка за межы адной заявы. Новае даследаванне Лучыёні і яе калег паказала, што ў маі 2025 года 84% трафіку буйных моўных мадэляў прыходзілася на мадэлі, якія не раскрываюць ніякіх дадзеных аб экалагічным уплыве. Гэта азначае, што пераважная большасць карыстальнікаў узаемадзейнічаюць з сістэмамі, чый вугляродны след застаецца невядомым.
«Мы купляем аўтамабілі і ведаем іх расход паліва. Чаму ў выпадку з ШІ ў нас няма аналагічнай інфармацыі?» — кажа Луччыёні. Яна заклікае ўвесці абавязковую справаздачнасць па выкідах вуглякіслага газу для ўсіх ШІ-сістэм, асабліва з улікам абвастрэння кліматычнага крызісу.
Недахоп афіцыйных дадзеных прыводзіць да таго, што ў медыя і палітыцы распаўсюджваюцца сумнеўныя лічбы. Напрыклад, сцвярджэнне аб тым, што запыт да ChatGPT нібыта спажывае ў 10 разоў больш энергіі, чым пошук у Google, часта паўтараецца ў публікацыях. Аднак гэты тэзіс заснаваны толькі на нефармальнай заўвазе Джона Хенэсі, старшыні савета дырэктараў Alphabet, зробленай яшчэ ў 2023 годзе. Нягледзячы на адсутнасць фактычнай базы, гэтае сцвярджэнне працягвае выкарыстоўвацца ў справаздачах і рэкамендацыях.
Для атрымання больш дакладнай карціны даследчыкі звяртаюцца да адкрытых мадэляў. У нядаўна апублікаванай у часопісе Frontiers of Communication працы каманда навукоўцаў пратэставала 14 open-source мадэляў, уключаючы Meta LLaMA і DeepSeek. Вынікі паказалі, што адны мадэлі спажываюць да 50% больш энергіі, чым іншыя, пры вырашэнні аднолькавых задач. Больш складаныя мадэлі з развітым «мысленнем» (reasoning models) выкарыстоўвалі больш токенаў і дэманстравалі больш высокую дакладнасць — але пры гэтым і значна большае энергаспажыванне.
Фізічная інфраструктура таксама адыгрывае ключавую ролю. Як адзначае Номан Башыр з MIT, параўноўваць выкіды ШІ без уліку сервераў, сістэм ахаладжэння і тыпу электрасеткі — усё роўна што ацэньваць расход паліва аўтамабіля, круцячы кола ў паветры. Абсталяванне, што выкарыстоўваецца, таксама мае значэнне: больш новыя GPU забяспечваюць высокую прадукцыйнасць, але таксама адрозніваюцца павышаным энергаспажываннем.
Нарэшце, нават адкрытыя мадэлі, па якіх можна правесці разлікі, складаюць толькі малую долю рэальнага рынку. Большая частка спажывання энергіі прыходзіцца не на асобныя запыты, а на навучанне і пастаяннае абнаўленне мадэляў — і менавіта аб гэтых выдатках кампаніі не хочуць гаварыць.
А я вчера считал, сколько будет стоить инфраструктура, чтобы поднять LLM с контекстом на 128к токенов в режиме непрерывной генерации примерно 120 токенов в секунду. Это где-то 1.5-2 кВт/ч получалось, если не использовать RAG+MoE+RingAttn. Это бы обеспечивало параллельную непрерывную работу 2-3 разработчиков. А сколько стоит сама эта инфраструктура для инференса... кхм... Не будем об этом.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
А я вчера считал, сколько будет стоить инфраструктура, чтобы поднять LLM с контекстом на 128к токенов в режиме непрерывной генерации примерно 120 токенов в секунду. Это где-то 1.5-2 кВт/ч получалось, если не использовать RAG+MoE+RingAttn. Это бы обеспечивало параллельную непрерывную работу 2-3 разработчиков. А сколько стоит сама эта инфраструктура для инференса... кхм... Не будем об этом.