Вышла сверхбыстрая версия Codex — первая модель OpenAI без чипов Nvidia
Компания представила облегченную версию инструмента для программирования Codex — модель GPT-5.3-Codex-Spark. Новинка стала первым продуктом OpenAI, использующим специализированный ИИ-чип от партнера Cerebras.
Компания представила облегченную версию инструмента для программирования Codex — модель GPT-5.3-Codex-Spark. Новинка стала первым продуктом OpenAI, использующим специализированный ИИ-чип от партнера Cerebras.
В OpenAI называют Spark «меньшей версией» GPT-5.3-Codex, оптимизированной для максимально быстрой обработки запросов. Модель предназначена прежде всего для повседневных задач разработчиков (быстрого прототипирования, точечных правок кода и оперативной итерации), тогда как базовая версия рассчитана на более сложные и длительные процессы.
Codex-Spark работает на чипе Wafer Scale Engine 3 — третьем поколении мегачипов Cerebras с примерно 4 триллионами транзисторов. По данным OpenAI, модель способна выдавать более 1000 токенов в секунду и демонстрирует значительное снижение задержек: время отклика сокращено примерно на 80%, время до появления первого токена — на 50%, а накладные расходы на обработку токенов — на 30%.
«Codex-Spark — это первый шаг к системе, работающей в двух режимах: совместная работа в реальном времени для быстрых итераций и длительные задачи, требующие более глубокого рассуждения и исполнения», — заявили в OpenAI.
Модель уже доступна в режиме research preview пользователям ChatGPT Pro и имеет отдельные лимиты использования. В дальнейшем компания планирует расширять доступ по мере увеличения вычислительных мощностей.
Партнерство с Cerebras, о котором OpenAI объявила в январе, оценивается более чем в $10 миллиардов и рассчитано на несколько лет. В компании отмечали, что интеграция новых вычислительных решений направлена на то, чтобы «сделать ИИ значительно более быстрым в ответах». Spark стала «первой вехой» этого сотрудничества.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.