Новая ШІ-мадэль DeepSeek зробіць працу ўдвая таннейшай за папярэднюю
Кампанія выпусціла эксперыментальную мадэль V3.2-Exp з новай архітэктурай Sparse Attention. Тэхналогія дазваляе значна знізіць вылічальныя выдаткі пры працы з доўгім кантэкстам і ўдвая скараціць кошт API-запытаў.
Ключавы элемент сістэмы — модуль Lightning Indexer, які адбірае найбольш важныя фрагменты тэксту для апрацоўкі. Далей сістэма выбірае канкрэтныя токены ўнутры гэтых фрагментаў, загружаючы іх у абмежаванае «акно ўвагі». Такі падыход дазваляе мадэлі эфектыўна працаваць з вялікімі аб’ёмамі тэксту без празмернай нагрузкі на серверы.
Папярэднія тэсты DeepSeek паказалі, што ў доўгіх сесіях кошт аднаго API-выкліку можа знізіцца на 50%. Хоць пакуль незалежныя эксперыменты не пацвярджалі гэтыя дадзеныя, мадэль ужо даступная на Hugging Face у адкрытым доступе, а зыходны артыкул апублікаваны на GitHub.
Sparse Attention не з’яўляецца новай ідэяй: падобныя метады выкарыстоўваліся OpenAI і Google у папярэдніх пакаленнях мадэляў. Аднак DeepSeek сцвярджае, што ўпершыню рэалізавала эфектыўны варыянт тэхналогіі, які спалучае якасць і эфектыўнасць.
Раней DeepSeek сцвярджала, што яе мадэль R1 здолела паказаць вынікі, параўнальныя з OpenAI, пры значна меншых выдатках на навучанне. Эксперты адзначаюць, што поспех V3.2-Exp можа аказаць уплыў на ўсю індустрыю: зніжэнне выдаткаў на інферэнс дазволіць кампаніям прадастаўляць ШІ-сэрвісы танней і хутчэй, асабліва пры працы з доўгімі кантэкстамі.
Читать на dev.by