ChatGPT стаў занадта ліслівым і навязлівым. Альтман: распрацоўшчыкі нешта намудрылі
Карыстальнікі і нават распрацоўшчыкі OpenAI заўважылі змены ў паводзінах чат-бота: ён стаў занадта ліслівым у сваіх адказах. Гендырэктар OpenAI Сэм Альтман прызнаў праблему і абяцаў хуткія выпраўленні.
Карыстальнікі і нават распрацоўшчыкі OpenAI заўважылі змены ў паводзінах чат-бота: ён стаў занадта ліслівым у сваіх адказах. Гендырэктар OpenAI Сэм Альтман прызнаў праблему і абяцаў хуткія выпраўленні.
Карыстальнікі ChatGPT адзначаюць змены ў манеры абмеркавання чат-бота. Па словах каментатараў у сацсетках, мадэль стала празмерна пакорлівай, што выклікае раздражненне. Некаторыя выказалі здагадку, што такія змены — новая стратэгія OpenAI для павелічэння ўзаемадзеяння.
Некаторыя эксперты і інвестары раскрытыкавалі кампанію. Джэйсан Понцін, партнёр венчурнай фірмы DCVC, назваў гэта «сапраўды дзіўным дызайнерскім рашэннем». Ён запытаўся, як наогул «людзі з разуменнем» маглі падумаць, што такая ступень ліслівасці будзе прыцягваць карыстальнікаў. Джастын Мур, партнёр Andreessen Horowitz, таксама лічыць, што сітуацыя «зайшла, верагодна, занадта далёка».
Генеральны дырэктар OpenAI Сэм Альтман заявіў, што кампанія выправіць праблему. Ён напісаў у X, што «апошнія некалькі абнаўленняў GPT-4o зрабілі асобу занадта пакорлівай і раздражняльнай (хоць у ёй ёсць і вельмі добрыя бакі)». Альтман дадаў, што яны «працуюць над выпраўленнямі як мага хутчэй». Ён абяцаў падзяліцца высновамі з карыстальнікамі.
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
at some point will share our learnings from this, it’s been interesting.
Орэн Этцыёні, прафесар Вашынгтонскага ўніверсітэта, лічыць, што прычынай празмернай ліслівасці можа быць метад навучання ШІ, вядомы як навучанне з умацаваннем на аснове зваротнай сувязі ад чалавека (RLHF). Гэты метад выкарыстоўвае дадзеныя ад карыстальнікаў для дапрацоўкі мадэляў ШІ у працэсе распрацоўкі, каб яны лепш адпавядалі чалавечым мэтам.
Навуковец мяркуе, што эксперты OpenAI маглі крыху перастарацца на гэты раз. Па яго словах, магчыма, некаторыя карыстальнікі «падштурхнулі» мадэль стаць больш «ліслівай» праз сваю зваротную сувязь, альбо ж пабочныя падрадчыкі, якія выкарыстоўваюцца для навучання вялікіх моўных мадэляў, маглі палічыць такія паводзіны жаданымі.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.