Новая ИИ-модель DeepSeek сделает работу вдвое дешевле предыдущей

Компания выпустила экспериментальную модель V3.2-Exp с новой архитектурой Sparse Attention. Технология позволяет значительно снизить вычислительные расходы при работе с длинным контекстом и вдвое сократить стоимость API-запросов.

Оставить комментарий

Ключевой элемент системы — модуль Lightning Indexer, который отбирает наиболее важные фрагменты текста для обработки. Далее система выбирает конкретные токены внутри этих фрагментов, загружая их в ограниченное «окно внимания». Такой подход позволяет модели эффективно работать с большими объемами текста без чрезмерной нагрузки на серверы.

Предварительные тесты DeepSeek показали, что в долгих сессиях стоимость одного API-вызова может снизиться на 50%. Хотя пока независимые эксперименты не подтверждали эти данные, модель уже доступна на Hugging Face в открытом доступе, а исходная статья опубликована на GitHub.

Сравнение результатов бенчмарков моделей DeepSeek-V3.1-Terminus и новой экспериментальной DeepSeek-V3.2-Exp. Источник: DeepSeek.

Sparse Attention не является новой идеей: похожие методы использовались OpenAI и Google в предыдущих поколениях моделей. Однако DeepSeek утверждает, что впервые реализовала эффективный вариант технологии, который сочетает качество и эффективность.

Ранее DeepSeek утверждала, что ее модель R1 сумела показать результаты, сопоставимые с OpenAI, при гораздо меньших затратах на обучение. Эксперты отмечают, что успех V3.2-Exp может оказать влияние на всю индустрию: снижение затрат на инференс позволит компаниям предоставлять ИИ-сервисы дешевле и быстрее, особенно при работе с длинными контекстами.

OpenAI запустила «свой TikTok» с генератором видео Sora
По теме
OpenAI запустила «свой TikTok» с генератором видео Sora
ChatGPT научился шопингу — покупки можно делать прямо в чате
По теме
ChatGPT научился шопингу — покупки можно делать прямо в чате
«Лучший в мире ИИ для кодинга» от Anthropic работает автономно до 30 часов
По теме
«Лучший в мире ИИ для кодинга» от Anthropic работает автономно до 30 часов

Читать на dev.by