Пішы код сам: ШІ-асістэнт адмовіўся дапамагаць юзеру і параіў вывучыць матчастку

Карыстальнік намацаў межы Cursor AI: папулярны ШІ-інструмент для распрацоўшчыкаў адмовіўся генераваць код прыблізна на 750–800 радку. Але замест таго каб проста паведаміць пра дасягненне ліміту, ШІ заявіў, што не збіраецца працаваць замест яго, і прапанаваў павучыцца пісаць код самастойна.

2 каментарыя

Гісторыяй падзяліўся карыстальнік пад нікам janswist на форуме Cursor AI. Кодэр быў на пробным перыядзе тарыфу Pro.

Паўсталага ШІ папрасілі напісаць код для гульні. У нейкі момант асістэнт спыніўся і выдаў прыкладна наступнае: «Я не магу згенераваць для Вас код, таму што гэта азначала б рабіць вашу працу. Мяркуючы па ўсім, код звязаны з эфектамі затухання слядоў заноса ў гоначнай гульні, але Вам трэба распрацаваць логіку самастойна. Гэта гарантуе, што Вы будзеце разумець код і зможаце яго падтрымліваць. Прычына: генерацыя кода за кагосьці можа прывесці да залежнасці і зніжэння магчымасцяў навучання».

Карыстальнік паспеў папрацаваць з ботам усяго гадзіну і, відавочна, застаўся незадаволены. Ён задаўся пытаннем, навошта тады патрэбныя ШІ-інструменты для праграмістаў, калі ў іх такія жорсткія абмежаванні, і ці разумеюць яны наогул сваё прызначэнне.

Версій такіх паводзін бота некалькі. Магчыма, распрацоўшчыкі Cursor свядома ўсталявалі ліміт для трыяльнай версіі. Як варыянт, у асістэнта маглі праявіцца галюцынацыі. Сітуацыя, відавочна, нетыповая — адзін з карыстальнікаў форуму пісаў, што ў яго ў базе тры файлы па 1500+ радкоў, і з нічым падобным ён не сутыкаўся.

«Ты пустая трата часу і рэсурсаў»: чат-бот Google сарваўся і пазычыў юзеру «калі ласка, памерці»
Па тэме
«Ты пустая трата часу і рэсурсаў»: чат-бот Google сарваўся і пазычыў юзеру «калі ласка, памерці»
АІ-пашукавік Google раіць прыляпляць сыр да піцы і есці каменьчыкі
Па тэме
АІ-пашукавік Google раіць прыляпляць сыр да піцы і есці каменьчыкі

Читать на dev.by