Мы запустили Dzik Pic Store. Заходи к нам в магазин за крутым мерчом ☃️
Support us

Grok Маска не отвечает на запросы, потому что не позволяют «правила OpenAI»

Месяц назад компания xAI Илона Маска запустила чат-бота Grok. На днях он попался на плагиате: исследователь Джакс Уинтерборн выложил в Х скриншот, на котором Grok отказался выполнять запрос, потому что «он противоречит правилам пользования OpenAI» — разработчице бота-конкурента ChatGPT.

Оставить комментарий
Grok Маска не отвечает на запросы, потому что не позволяют «правила OpenAI»

Месяц назад компания xAI Илона Маска запустила чат-бота Grok. На днях он попался на плагиате: исследователь Джакс Уинтерборн выложил в Х скриншот, на котором Grok отказался выполнять запрос, потому что «он противоречит правилам пользования OpenAI» — разработчице бота-конкурента ChatGPT.

Причём в xAI даже не пытались опровергнуть такое поведение своего чат-бота. Там все объяснили тем, что в сети полным-полно ответов, сгенерированных ChatGPT, и какие-то подвернулись разработчикам при обучении Grok на огромном массиве данных из интернета. «Для нас стало огромной неожиданностью, когда мы впервые столкнулись с этим. Как бы там ни было, проблема довольно редкая, мы о ней знаем и сделаем так, чтобы в будущих версиях Grok её не было», — написал сотрудник xAI, добавив, что код OpenAI при создании бота не использовался.

Уинтерборн возразил, что проблема отнюдь не редкая и часто всплывает при просьбе сгенерировать код. Экспертов по большим языковым моделям объяснение тоже не убедило, поскольку модели (почти никогда) не выдают тренировочные данные кусками дословно, что могло бы случиться, если Grok подцепил случайные упоминания политики OpenAI где-то на просторах сети. По их мнению, отказываться от ответа на запрос со ссылкой на политику OpenAI бот мог быть только обучен целенаправленно. И дообучение происходило OpenAI на базе ответов, сгенерированных моделями OpenAI.

Иронично, что в сентябре Маск, который стоял у истоков OpenAI и сейчас владеет Х, полностью запретил сканирование и парсинг соцсети, чтобы сторонние разработчики не тренировали на её данных свои ИИ-модели.

Чатбот Microsoft «похоронил» чатбота Google после того как он «похоронил» сам себя
Чатбот Microsoft «похоронил» чатбота Google после того, как он «похоронил» сам себя
По теме
Чатбот Microsoft «похоронил» чатбота Google после того, как он «похоронил» сам себя
«Давай сам»: ChatGPT совсем обленился и не хочет отвечать на пользовательские запросы
«Давай сам»: ChatGPT совсем обленился и не хочет отвечать на пользовательские запросы
По теме
«Давай сам»: ChatGPT совсем обленился и не хочет отвечать на пользовательские запросы
«Стих стих стих стих…» В Google нашли интересный способ выудить у ChatGPT обучающие данные — включая персональные
«Стих, стих, стих, стих…» В Google нашли интересный способ выудить у ChatGPT обучающие данные — включая персональные
По теме
«Стих, стих, стих, стих…» В Google нашли интересный способ выудить у ChatGPT обучающие данные — включая персональные
70% заказов «ИИ-технологии» для автокафе обрабатывают люди. Разработчики говорили что почти все — сам ИИ
70% заказов «ИИ-технологии» для автокафе обрабатывают люди. Разработчики говорили, что почти все — сам ИИ 
По теме
70% заказов «ИИ-технологии» для автокафе обрабатывают люди. Разработчики говорили, что почти все — сам ИИ
🎊 Dzik Pic Store открыт и готов принимать заказы!

Заходи к нам в магазин

Читайте также
Все говорят об ИИ-пузыре — но на рынке не всё так плохо
Все говорят об ИИ-пузыре — но на рынке не всё так плохо
Все говорят об ИИ-пузыре — но на рынке не всё так плохо
«ИИ-иммигранты»: глава Nvidia объяснил, кто будет работать вместо людей
«ИИ-иммигранты»: глава Nvidia объяснил, кто будет работать вместо людей
«ИИ-иммигранты»: глава Nvidia объяснил, кто будет работать вместо людей
Кризис нехватки оперативной памяти затянется на годы. Компании ищут выход
Кризис нехватки оперативной памяти затянется на годы. Компании ищут выход
Кризис нехватки оперативной памяти затянется на годы. Компании ищут выход
Аналитики: увольнения «из-за ИИ» — это фикция, которую компании придумали для маскировки проблем
Аналитики: увольнения «из-за ИИ» — это фикция, которую компании придумали для маскировки проблем
Аналитики: увольнения «из-за ИИ» — это фикция, которую компании придумали для маскировки проблем

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.