Глава OpenAI Сэм Альтман заявил, что компания разрабатывает новое поколение своей языковой модели, хотя еще полгода назад говорил, что работа приостановлена. Мы выяснили, зачем GPT-5 нужна стартапу, сколько это стоит и что о будущей модели думают эксперты.
Результат непредсказуем. Гендиректор OpenAI Сэм Альтман в интервью Financial Times заявил, что новая модель будет более продвинутой по сравнению с GPT-4. Однако разработчикам пока сложно предсказать, в каких аспектах она превзойдет предыдущую версию. Альтман не назвал дату выхода модели, но уточнил, что для ее обучения потребуется больше данных, чем при настройке прежних моделей OpenAI.
Как GPT-5 будет обучаться? Разработчики планируют обучать модель на общедоступных данных и базах от других компаний. Например, OpenAI запустила партнерскую инициативу OpenAI Data Partnerships, в рамках которой сторонние организации смогут предоставлять массивы данных для обучения собственных проектов в области ИИ. Другая цель инициативы — создать набор данных искусственного интеллекта с открытым исходным кодом, который будет бесплатным для разработчиков.
А что происходит сейчас? Компания уже представила модель GPT-4 Turbo — продвинутую версию своей флагманской большой языковой модели GPT-4. Новая версия обучалась на данных вплоть до апреля 2023 года, тогда как вышедшая в марте GPT-4 знала события лишь до сентября 2021-го. Также представленная модель будет в 3 раза дешевле для разработчиков, чем предыдущие. GPT-4 Turbo получила свой «магазин приложений» и несколько «агентов» — плагинов для улучшения текста, создания изображения, объяснения мемов и т. д.
Планы OpenAI. Конечной целью усилий OpenAI называет разработку сильного искусственного интеллекта общего назначения (AGI). Это гипотетическая форма ИИ, которая способна выполнять широкий спектр задач и обучаться на уровне, близком к человеческому интеллекту. Альтман подчеркивает, что такие крупные модели, как GPT-5, имеют решающее значение для создания AGI, хотя это очень сложная задача.
Сколько это стоит? Сейчас OpenAI не является прибыльной компанией, однако ее годовой доход значительно вырос: в октябре он достиг $1,3 миллиарда по сравнению с $1 миллиардом двумя месяцами ранее и $28 миллионами в предыдущем году. Microsoft уже инвестировала в разработки OpenAI $10 миллиардов при оценке компании в $29 миллиардов. OpenAI рассматривает возможность вторичной продажи активов инвесторами при оценке в $86 миллиардов.
Скорость разработки упирается в железо. Разработка крупномасштабных языковых моделей, таких как GPT-5, требует значительных затрат, в частности, на приобретение высокопроизводительных графических процессоров. Например, флагманская модель Nvidia H100, которую использует разработчик, стоит около $40 тысяч. Несмотря на дефицит поставок, OpenAI начала получать графические процессоры H100, которые необходимы для разработки новой модели, и ожидает улучшения поставок в следующем году. По мнению Альтмана, зависимость от Nvidia вряд ли продлится долго, поскольку другие игроки — Google, Microsoft, AMD и Intel — готовятся выпустить конкурирующие чипы для ИИ.
Компания нравится не всем. Многие критики отмечают, что компания противоречит сама себе — и вместо заявленной открытости не спешит делиться подробностями процесса своих разработок. Еще во время презентации GPT-4 OpenAI широко представила результаты тестов и примеры работ, но практически ничего не рассказала о том, какие датасеты использовались для обучения, какие были энергозатраты, оборудование и методы при разработке. В ответ сооснователь стартапа Илья Суцкевер заявил, что компания ограничивает информацию из-за конкуренции.
А что у конкурентов? В июле Meta выпустила большую языковую модель Llama 2 как проект с открытым исходным кодом, что позволяет настраивать ее под конкретные задачи. При использовании GPT-4 приходится полагаться только на тонкую настройку запросов к модели. В версии Turbo функционал расширили и добавили «агентов», которые проще создавать, чем донастраивать модели с открытым исходным кодом. Еще один конкурент — это модель Claude 2 от Google и Amazon, которая имеет доступ к контекстному окну в 100 тысяч токенов. Turbo имеет доступ к 128 тысячам токенов.
Что думают эксперты? Специалисты сходятся во мнении, что предугадать возможности GPT-5 невозможно, но можно предположить преимущества модели исходя из возможностей уже известных продуктов.
Меньше «галлюцинаций». В GPT-4 по сравнению с GPT-3.5 фактологичность ответов выше. Эксперты ожидают, что GPT-5 еще больше снизит уровень «галлюцинаций» (генерации неточной или нелепой информации) до менее чем 10%, что повысит надежность языковых моделей.
Дешевле создание. Хотя точные цифры неизвестны, стоимость создания GPT-4 была большой в первую очередь из-за дорогой инфраструктуры. Специалисты надеются, что при создании GPT-5 затраты снизятся, а эффективность повысится без ущерба производительности.
Появление мультимодальности. GPT-5 может значительно расширить возможность генерации контента: не только текста, но и аудио и видео. Сейчас версия GPT-4 Turbo уже имеет интеграцию с DALL-E — это значит, что разработчики планируют добавить другие мультимедийные функции в следующую версию.
Длиннее память. По прогнозам экспертов, GPT-5 будет иметь увеличенную длину контекста, что позволит нейросети запоминать и ссылаться на взаимодействие с пользователей в течение более длительного времени. ИИ будет лучше понимать контекст при анализе естественного языка и эмоций.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.