OpenAI представила GPT-4 с поддержкой картинок
OpenAI анонсировала улучшенную версию своей языковой модели — GPT-4. По словам разработчиков, она более креативна и стала содержать меньше предвзятостей.
OpenAI анонсировала улучшенную версию своей языковой модели — GPT-4. По словам разработчиков, она более креативна и стала содержать меньше предвзятостей.
Ранее в основе чатбота ChatGPT лежала версия GPT-3.5. Главным отличием новой нейросети стала «мультимодальность» — она принимает на вход не только текст, но и картинки. Также она способна генерировать в 8 раз больше текста, чем её предшественница.
Опробовать более мощную модель через чатбота и API теперь смогут владельцы подписки ChatGPT Plus — пока речь идёт о текстовом вводе. Желающие могут оставить заявку в листе ожидания. Возможность подавать на вход картинки для широкой публики пока не доступна.
OpenAI отмечает, что различия между GPT-4 и GPT-3.5 проявляются на запросах более высокой сложности: новая версия даёт более надёжные и креативные ответы и справляется с более специфическими инструкциями.
Вероятность ответа GPT-4 на запрос запрещённого контента снижена на 82% по сравнению с GPT-3.5, а фактологичность повысили на 40%. Впрочем, GPT-4 все ещё не идеальна и подвержена «галлюцинациям», то есть может выдавать несуществующие факты за действительность и допускать логические ошибки.
Microsoft поспешила сообщить, что её чатбот Bing работает на основе именно GPT-4, кастомизированной под поисковые задачи.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Комментарий скрыт за нарушение правил комментирования.
П. 4.1.2. Пользовательского соглашения — https://dev.by/pages/agreement