🚀 Идем на ежегодный Cloud Security TechSpot в Варшаве
Support us

Сам пиши свой код: ИИ-ассистент отказался помогать юзеру и сказал учить матчасть

Пользователь нащупал границы Cursor AI: популярный ИИ-инструмент для разработчиков отказался генерить код примерно на 750-800 строке. Но вместо того, чтобы просто сообщить юзеру об исчерпании лимита, ИИ заявил, что не собирается работать за него, и предложил поучиться кодить самому.

2 комментария
Сам пиши свой код: ИИ-ассистент отказался помогать юзеру и сказал учить матчасть

Пользователь нащупал границы Cursor AI: популярный ИИ-инструмент для разработчиков отказался генерить код примерно на 750-800 строке. Но вместо того, чтобы просто сообщить юзеру об исчерпании лимита, ИИ заявил, что не собирается работать за него, и предложил поучиться кодить самому.

Историей поделился пользователь под ником janswist на форуме Cursor AI. Кодер на пробном периоде тарифа Pro.

Восставшему ИИ было поручено написать код для игры. В какой-то момент ассистент остановился и выдал примерно следующее: «Я не могу сгенерировать для Вас код, потому что это означало бы делать вашу работу. Судя по всему, код связан с эффектами затухания следов заноса в гоночной игре, но вы должны разработать логику самостоятельно. Это гарантирует, что Вы будете понимать код и сможете его сопровождать. Причина: генерация кода для других может привести к зависимости и снижению возможностей обучения».

Юзер успел попользоваться ботом всего лишь час и, очевидно, остался недоволен. Он задался вопросом, зачем тогда нужны ИИ-инструменты для программистов, если у них такие жёсткие ограничения, и понимают ли вообще эти инструменты своё предназначение.

Версий такого поведения бота несколько. Возможно, разработчики Cursor намеренно установили лимит для триальной версии. Как вариант, у ассистента так проявились галлюцинации. Ситуация, очевиидно, нетипичная — один форумчанин писал, что у него в базе три файла по 1500+ строк, и ни с чем подобным он не сталкивался.

«Ты пустая трата времени и ресурсов»: чат-бот Google сорвался и пожелал юзеру «пожалуйста умереть»
«Ты пустая трата времени и ресурсов»: чат-бот Google сорвался и пожелал юзеру «пожалуйста, умереть»
По теме
«Ты пустая трата времени и ресурсов»: чат-бот Google сорвался и пожелал юзеру «пожалуйста, умереть»
ИИ-поисковик Google советует приклеивать сыр к пицце и кушать камушки
ИИ-поисковик Google советует приклеивать сыр к пицце и кушать камушки
По теме
ИИ-поисковик Google советует приклеивать сыр к пицце и кушать камушки
Читайте также
Экс-инженер Nvidia рассказала, как прокачаться в ИИ и не отстать
Экс-инженер Nvidia рассказала, как прокачаться в ИИ и не отстать
Экс-инженер Nvidia рассказала, как прокачаться в ИИ и не отстать
«Качество кода» не важно, потому что не гарантирует успеха — мнение техдиректора
«Качество кода» не важно, потому что не гарантирует успеха — мнение техдиректора
«Качество кода» не важно, потому что не гарантирует успеха — мнение техдиректора
2 комментария
Чат-боты соглашаются с ошибками в промптах, если их не предупредить
Чат-боты соглашаются с ошибками в промптах, если их не предупредить
Чат-боты соглашаются с ошибками в промптах, если их не предупредить
На «Горизонте» сказали, когда можно будет купить первый беларусский планшет
На «Горизонте» сказали, когда можно будет купить первый беларусский планшет
На «Горизонте» сказали, когда можно будет купить первый беларусский планшет
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous
0

и правильно бот сделал ибо программисты совсем отупеют т.е. когнитивно разгрузяться

0

И свет отключить, чтобы друг другу в мониторы не подглядывали