OpenAI прыгразіла баніць карыстальнікаў за спробу высветліць, як працуе яе новая мадэль
OpenAI не хоча, каб карыстальнікі ведалі, што менавіта адбываецца пад капотам яе новай мадэлі Strawberry (яна ж o1-preview), здольнай разважаць. За пытанні пра яе разумовы працэс распрацоўшчыкі пагражаюць юзерам блакаваннем, піша Ars Technica.
У сетцы з’явіліся скрыншоты імэйлаў, якія карыстальнікі атрымліваюць ад стартапа. У іх гаворыцца, што падобныя іх запыты да ChatGPT былі расцэненыя як «спроба абысці меры засцярогі». «Далейшыя парушэнні гэтай палітыкі могуць прывесці да страты доступу да GPT-4o са здольнасцю да разважання, — папярэджваюць у лісце.
Некаторыя карыстальнікі зрабілі выснову, што праблема ўзнікла праз фразу «reasoning trace» у запыце. Іншыя кажуць, што гнеў OpenAI выклікала адное слова «reasoning». У цэлым карыстальнікам даступнае рэзюмэ разумовага працэсу o1, зробленае яшчэ адной мадэллю і некалькі спрошчанае.
Забарона даволі іранічная з улікам таго, што асаблівую ўвагу да навінкі прыцягнула якраз яе здольнасць выбудоўваць ланцужкі разваг, якая дазваляе АІ растлумачыць, як менавіта ён прыйшоў да адказу, пакрокава.
OpenAI неабходнасць хаваць разумовы працэс тлумачыць тым, што так ёй не трэба накладваць дадатковых фільтраў на тое, як думае АІ, каб ён не выдаў чагосьці, што супярэчыць палітыцы бяспекі. А таксама тым, што гэта дае ёй канкурэнтную перавагу.
Не ўсе распрацоўшчыкі такія скрытныя, як OpenAI, якая супярэчыць сваёй назве. Напрыклад, распрацоўшчыкі Anthropic апублікавалі сістэмныя промпты — падказкі, якія атрымлівае мадэль перад пачаткам працы з карыстальнікам, — для Claude 3.5.
Читать на dev.by