Мы запустили Dzik Pic Store. Заходи к нам в магазин за крутым мерчом ☃️
Support us

Nvidia выпустила компактный ИИ-суперкомпьютер

Nvidia выпустила персональный суперкомпьютер DGX Spark, который сочетает производительность дата-центра с размерами настольного ПК. Он поступил в продажу сегодня и на сайте компании уже распродан, но его также можно купить у партнёров. Цена устройства — $3999, хотя изначально Nvidia называла цену в $3000.

3 комментария
Nvidia выпустила компактный ИИ-суперкомпьютер

Nvidia выпустила персональный суперкомпьютер DGX Spark, который сочетает производительность дата-центра с размерами настольного ПК. Он поступил в продажу сегодня и на сайте компании уже распродан, но его также можно купить у партнёров. Цена устройства — $3999, хотя изначально Nvidia называла цену в $3000.

DGX Spark способен выдавать петафлопс производительности и работать с ИИ-моделями до 200 млрд параметров. Он оснащён чипом GB10 Grace на архитектуре Blackwell, 128 Гб оперативной памяти, распределяемой между процессором и ИИ-ускорителем, а также SSD-хранилищем на 4 Тб. Компьютер подключается к обычной розетке и, по словам компании, является «самым маленьким ИИ-суперкомпьютером в мире».

NVIDIA подчёркивает, что Spark открывает новую категорию устройств — локальные станции, позволяющие разработчикам, исследователям и студентам обучать и дорабатывать модели без обращения к облаку. Гендиректор Дженсен Хуанг в релизе напомнил, что в 2016 году он лично передал первый суперкомпьютер DGX-1 Илону Маску для OpenAI. Теперь он доставил один из первых экземпляров Spark Маску в SpaceX.

Устройство идёт вместе с предустановленным программным стеком Nvidia AI — CUDA, библиотеками и сервисами NIM, что позволяет сразу начать работу. DGX Spark уже тестируют Google, Meta, Microsoft, Hugging Face, JetBrains и Anaconda.

Кроме базовой версии собственные варианты Spark за те же $3999 представят партнёры компании — Acer, Asus, Dell, Gigabyte, HP, Lenovo и MSI.

Глава Nvidia жалеет что не вложился в xAI по-крупному: «Во всё чем занимается Илон стоит вписаться»
Глава Nvidia жалеет, что не вложился в xAI по-крупному: «Во всё, чем занимается Илон, стоит вписаться»
По теме
Глава Nvidia жалеет, что не вложился в xAI по-крупному: «Во всё, чем занимается Илон, стоит вписаться»
$1 трлн по кругу: как OpenAI и Nvidia надувают ИИ-пузырь до предела
$1 трлн по кругу: как OpenAI и Nvidia надувают ИИ-пузырь до предела
По теме
$1 трлн по кругу: как OpenAI и Nvidia надувают ИИ-пузырь до предела
🎊 Dzik Pic Store открыт и готов принимать заказы!

Заходи к нам в магазин

Читайте также
Аналитики: увольнения «из-за ИИ» — это фикция, которую компании придумали для маскировки проблем
Аналитики: увольнения «из-за ИИ» — это фикция, которую компании придумали для маскировки проблем
Аналитики: увольнения «из-за ИИ» — это фикция, которую компании придумали для маскировки проблем
Для появления сверхразумного ИИ не хватает лишь одной детали
Для появления сверхразумного ИИ не хватает лишь одной детали
Для появления сверхразумного ИИ не хватает лишь одной детали
3 комментария
Как разработчику выжить в эпоху ИИ — советы инженера Microsoft
Как разработчику выжить в эпоху ИИ — советы инженера Microsoft
Как разработчику выжить в эпоху ИИ — советы инженера Microsoft
Популярный фреймворк Tailwind уволил всех инженеров, кроме одного — из-за ИИ
Популярный фреймворк Tailwind уволил всех инженеров, кроме одного — из-за ИИ
Популярный фреймворк Tailwind уволил всех инженеров, кроме одного — из-за ИИ
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

Крутой девайс. Хочу такой

0

Там unified memory, которая медленнее, чем VRAM у GPU. Конечно, 128 Gb лучше, чем 24-32 Gb, но все же нужно на тесты скорости смотреть

Zhan Chubukou
Zhan Chubukou Шчолкаю зубамі в ЗАО "Прыдацелі і атшчыпенцы"
0

Да. Пусть медленнее. Другой вопрос, что принципиально возможно запустить модель уровня Alphafold 3 или Openfold на собственном железе без приобретения A100 или H100, которые стоят как целая маленькая лаборатория.