CEO OpenAI: объединение LLM и LRM принесёт новые научные знания
В ИИ-индустрии уже стало общепринятым мнение о том, что предобученные большие языковые модели (LLM) больше не масштабируются с прежней эффективностью. Гендиректор OpenAI Сэм Альтман тоже считает предобучение «прошлым веком» — его компания исследует специализированные модели, оптимизированные с помощью обучения с подкреплением для задач, в которых есть определённо правильные и неправильные ответы — например, в программировании и математике.
В ИИ-индустрии уже стало общепринятым мнение о том, что предобученные большие языковые модели (LLM) больше не масштабируются с прежней эффективностью. Гендиректор OpenAI Сэм Альтман тоже считает предобучение «прошлым веком» — его компания исследует специализированные модели, оптимизированные с помощью обучения с подкреплением для задач, в которых есть определённо правильные и неправильные ответы — например, в программировании и математике.
OpenAI называет такие «большие рассуждающие модели» (large reasoning models, LRM) самым значимым достижением в сфере за последний год. Вопрос в том, чтобы объединить широкие способности LLM с глубиной и точностью специализированных LRM.
Альтман утверждает, что рассуждающие модели дают «поразительный прирост эффективности вычислений» и что OpenAI на некоторых бенчмарках добивается от них производительности, которую при «старом» подходе ожидали «не раньше, чем от GPT-6», притом что сами «модели гораздо меньше». Сложность, по его словам, в том, что при новом подходе модели «совершенствуются не сразу во всём, а в конкретных направлениях». Об этом он говорил на недавнем мероприятии Центра глобального образования UTokyo GlobE при Токийском университете.
Предприниматель отмечает, что если совместить предобучение «гораздо более крупной модели» со способностями думающих моделей, то это может привести к «появлению качественно новых научных знаний». Так, последняя модель OpenAI умеет «невероятно хорошо писать код», но не так хороша в изобретении новых алгоритмов, в новых открытиях в физике и биологии.
Для примера того, каким быстрым может быть прогресс благодаря обучению с подкреплением, Альтман приводит прорыв в программировании. Первая рассуждающая модель компании — o1, представленная в прошлом сентябре, — входила в миллион лучших в соревновательном программировании в мире. К декабрю уже o3 занимала 175 место в мировом рейтинге программистов, а по итогам внутренних тестов компания ставит модель примерно на 50-е. Альтман допускает, что к концу года модель может и вовсе добраться до вершины.
Помимо этого, Альтман подтвердил намерение OpenAI вернуться к опенсорсу, но довольно расплывчато и без конкретики. Он сказал, что OpenAI сделала значительные успехи в разработке безопасных и мощных моделей, подходящих для использования в опенсорсе. Что это за модели и когда их выложат в открытый доступ, гендиректор не уточнил.
К опенсорсу компанию подтолкнул китайский стартап Deepseek, чья рассуждающая — и открытая — модель R1 оказалась не хуже o1. Это заставило многих усомниться в закрытости OpenAI, которая оправдывает свою позицию страхом, что её моделями будут злоупотреблять.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.