GPT-4 потребляет до 1,5 литров воды для генерации ста слов

Исследователи из Калифорнийского университета в Риверсайде (США) рассказали об огромном расходе воды современными генеративными ИИ-моделями для охлаждения серверов даже тогда, когда они просто генерируют текст. И это вдобавок к высокой нагрузке на электросеть, пишет Tom’s Hardware.

8 комментариев

Объёмы потребления воды варьируются в зависимости от штатов и близости потребителей к дата-центрам, при этом чем меньше потребление воды, тем дешевле в этом регионе электричество и выше потребление электроэнергии. Например, в Техасе только для генерации емейла в 100 слов необходимо 235 мл воды, а в Вашингтоне — 1408 мл. На первый взгляд, это не так много, но показатели растут очень быстро, когда пользователи работают с GPT-4 несколько раз в неделю или в день.

Дата-центры являются крупными потребителями воды и электричества, следовательно, цены на эти ресурсы растут в городах, где возводятся такие объекты. Например, для обучения модели LLaMA-3 от Meta понадобилось 22 млн литров воды. Столько же нужно, чтобы вырастить 2014 кг риса, и столько же за год потребляют 164 американца.

Дорого стоит и потребляемая GPT-4 электроэнергия. Если каждый десятый работающий американец будет пользоваться моделью раз в неделю в течение года (52 запроса на 17 млн человек), потребуется 121 517 МВт·ч электроэнергии — этого хватит для всех домохозяйств в столице США на 20 дней. И это очень облегчённый сценарий использования GPT-4.

Большинство разработчиков ИИ-моделей, таких как OpenAI, Meta, Google и Microsoft, заявляют о стремлении сокращать потребление ресурсов. Однако конкретных планов действий они пока не предоставили.

OpenAI пригрозила банить пользователей за попытку выяснить, как работает её новая модель
По теме
OpenAI пригрозила банить пользователей за попытку выяснить, как работает её новая модель
OpenAI объяснила, почему ChatGPT начинал разговор первым
По теме
OpenAI объяснила, почему ChatGPT начинал разговор первым

Читать на dev.by