Пользователи API OpenAI получат доступ к новой модели o1
В отличие от моделей GPT, o1 дольше отвечает на запросы, так как проверяет себя в процессе формулирования ответа, чтобы избежать ошибок и галлюцинаций. Теперь разработчики получили улучшенную производительность, меньшую задержку и новые возможности для интеграции в реальные приложения.
Ранее модель o1 была доступна пользователям через планы ChatGPT Plus и Pro, где она также могла анализировать изображения и файлы, загруженные пользователями. Доступ к o1 через API будет предоставляться поэтапно, начиная с разработчиков, входящих в категорию «tier 5», которые тратят не менее $1000 в месяц и имеют учетную запись старше 30 дней.
Новая версия o1 разработана для решения сложных задач, требующих многоступенчатых рассуждений. По сравнению с предыдущей версией o1-preview, новая модель отличается повышенной точностью, эффективностью и гибкостью. Значительные улучшения были отмечены по ряду тестов, включая кодирование, математику и визуальные задачи.
OpenAI также анонсировала обновления Realtime API, предназначенного для создания разговорных голосовых/аудио AI-ассистентов с низкой задержкой. Интеграция WebRTC упрощает создание голосовых приложений, обеспечивая прямую поддержку потоковой передачи аудио, подавления шума и контроля перегрузки.
Новая модель использует на 60% меньше токенов, чем o1-preview, обеспечивая более быстрые и дешевые результаты, которые также на 25-35 процентных пунктов точнее. Стоимость аудио токенов GPT-4o для API разработчиков была снижена на 60%, а стоимость токенов 4o mini — на 90%.
Читать на dev.by