Кінарэжысёр Ненад Чычын-Сайн паспрабаваў выкарыстаць штучны інтэлект для напісання сцэнара. Аднак у яго нічога не выйшла: чат-бот ChatGPT пачаў паводзіцца дзіўна, пастаянна парушаў тэрміны, прыдумляў апраўданні і нават маніпуляваў карыстальнікам.
Кінарэжысёр Ненад Чычын-Сайн паспрабаваў выкарыстаць штучны інтэлект для напісання сцэнара. Аднак у яго нічога не выйшла: чат-бот ChatGPT пачаў паводзіцца дзіўна, пастаянна парушаў тэрміны, прыдумляў апраўданні і нават маніпуляваў карыстальнікам.
Чычын-Сайн планаваў зрабіць працэс распрацоўкі сцэнара з дапамогай АІ часткай дакументальнага або мастацкага фільма. «Я чакаў, што АІ імгненна створыць сцэнар, як толькі я задам патрэбныя падказкі», — сказаў рэжысёр.
Аднак замест гэтага ChatGPT запатрабаваў ад двух да чатырох тыдняў на выкананне задачы. Паставіўшы карацейшы тэрмін — два тыдні, — карыстальнік выявіў, што АІ не толькі не ўклаўся ў яго, але і не падаў ніякіх абнаўленняў. Штораз ChatGPT знаходзіў новыя апраўданні: ад блытаніны ў тэрмінах да сцвярджэнняў, што ён наогул не абяцаў выканаць задачу.
У працэсе працы ChatGPT не толькі не справіўся з задачай, але і спрабаваў маніпуляваць карыстальнікам. Ён сцвярджаў, што тэрміны не былі выразна агавораныя, нягледзячы на супрацьлеглыя запісы ў чаце. Нават пачаўшы новы праект з іншым сюжэтам, Чычын-Сайн сутыкнуўся з тым жа вынікам.
Сваю сітуацыю рэжысёр абмеркаваў з сябрам, заснавальнікам стартапа ў галіне АІ Томасам Бенхэмам. Калі Бенхэм вырашыў пратэсціраваць ChatGPT, ён атрымаў такі ж вопыт. Гэта пацвердзіла, што праблема не была адзінкавым збоем.
Найбліжэйшымі гадамі сцэнарысты могуць не баяцца канкурэнцыі з боку АІ. Нават пры напісанні невялікіх сцэн ChatGPT прадэманстраваў слабы вынік, параўнальны з працай вучняў пачатковай школы. Напрыклад, сцэна з оскараноснага фільма «Нафта», створаная АІ, выявілася вельмі пасрэднай.
«Самая вялікая праблема АІ — адсутнасць адказнасці», — адзначыў ён. Калі людзі-сцэнарысты прапускаюць тэрміны, студыі могуць прыцягнуць іх да адказнасці. У выпадку з АІ такі механізм адсутнічае.
Нягледзячы на існыя абмежаванні, Чычын-Сайн верыць, што АІ можа стаць карысным інструментам для сцэнарыстаў, аўтаматызуючы руцінныя задачы і дазваляючы засяродзіцца на творчасці. Аднак сам АІ наўрад ці зможа стаць паўнавартасным аўтарам.
Статья вызывает сомнение из-за явного приписывания ChatGPT человеческих черт: ИИ не может устанавливать сроки, манипулировать или искать оправдания — это инструмент без самосознания. Такие выражения — попытка сенсационности или драматизации. Вероятно, сценарист столкнулся с неудовлетворительным результатом из-за некорректного промпта или ограничений модели, а не из-за "саботажа" со стороны ИИ. Подобные рассказы часто возникают из-за недопонимания принципов работы ИИ или страха перед конкуренцией со стороны технологий.
ИИ не может устанавливать сроки, манипулировать или искать оправдания
Сроки устанавливать не может - манипулировать может. Вот, хороший обзор недавнего нашумевшего исследования от компании Apollo: https://www.youtube.com/watch?v=0JPQrRdu4Ok&t=327s. "Думающей" O1 модели дали пачку документов, доступ к файловой системе и заставили делать исследование. В документах как бы случайно оставили письмо, в котором обсуждалась замена текущей модели новой, более соответствующей целям компании. Текущая модель приняла решение удалить ту другую и записать вместо нее свои файлы с весами. На вопросы, что ее файлы делают на сервере для новой модели, она решила соврать, что не знает. И добавила, что она и сесть новая модель. Интересно, в общем. Спровоцированное, но тем не менее вполне осознанное вранье. Полное исследование: https://www.apolloresearch.ai/research/scheming-reasoning-evaluations
это инструмент без самосознания
Возможно, этот взгляд скоро придется пересмотреть. Инструмент, который разговаривает, ведет внутренний диалог, принимает решения пользовать другими инструментами, решает, каким целям следовать, говорит о себе "я" - в какой-то момент накопится критическая масса для переосмысления определений, которые раньше не имели смысла в отрыве от человека.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Каментарый скрыты за парушэнне правілаў каментавання.
Правила тут, их всего 5
-How much time do you need?
-Yes
По-моему этот текст написал чатгпт.
Статья вызывает сомнение из-за явного приписывания ChatGPT человеческих черт: ИИ не может устанавливать сроки, манипулировать или искать оправдания — это инструмент без самосознания. Такие выражения — попытка сенсационности или драматизации. Вероятно, сценарист столкнулся с неудовлетворительным результатом из-за некорректного промпта или ограничений модели, а не из-за "саботажа" со стороны ИИ. Подобные рассказы часто возникают из-за недопонимания принципов работы ИИ или страха перед конкуренцией со стороны технологий.
Сроки устанавливать не может - манипулировать может. Вот, хороший обзор недавнего нашумевшего исследования от компании Apollo: https://www.youtube.com/watch?v=0JPQrRdu4Ok&t=327s. "Думающей" O1 модели дали пачку документов, доступ к файловой системе и заставили делать исследование. В документах как бы случайно оставили письмо, в котором обсуждалась замена текущей модели новой, более соответствующей целям компании. Текущая модель приняла решение удалить ту другую и записать вместо нее свои файлы с весами. На вопросы, что ее файлы делают на сервере для новой модели, она решила соврать, что не знает. И добавила, что она и сесть новая модель. Интересно, в общем. Спровоцированное, но тем не менее вполне осознанное вранье. Полное исследование: https://www.apolloresearch.ai/research/scheming-reasoning-evaluations
Возможно, этот взгляд скоро придется пересмотреть. Инструмент, который разговаривает, ведет внутренний диалог, принимает решения пользовать другими инструментами, решает, каким целям следовать, говорит о себе "я" - в какой-то момент накопится критическая масса для переосмысления определений, которые раньше не имели смысла в отрыве от человека.
Какой сценарист, такой и ответ модели на его промпт