АІ-інструменты могуць выдаваць ілжывыя адказы, якія скажаюць рэчаіснасць — чаго вартыя выявы нацыстаў-азіятаў ад Gemini. Але часта вельмі складана зразумець, ці гэта баг, ці рэч у якасці АІ-мадэлі, якая ляжыць у аснове, адказнай за апрацоўку ўводных даных і прадказанне найбольш аптымальнага адказу, адзначае The Verge. OpenAI апублікавала праект фрэймворка Model Spec, які вызначае, як АІ-інструменты накшталт GPT-4 маюць рэагаваць на карыстальніцкія запыты.
АІ-інструменты могуць выдаваць ілжывыя адказы, якія скажаюць рэчаіснасць — чаго вартыя выявы нацыстаў-азіятаў ад Gemini. Але часта вельмі складана зразумець, ці гэта баг, ці рэч у якасці АІ-мадэлі, якая ляжыць у аснове, адказнай за апрацоўку ўводных даных і прадказанне найбольш аптымальнага адказу, адзначае The Verge. OpenAI апублікавала праект фрэймворка Model Spec, які вызначае, як АІ-інструменты накшталт GPT-4 маюць рэагаваць на карыстальніцкія запыты.
Кампанія прапаноўвае тры агульныя прынцыпы: АІ-мадэлі маюць дапамагаць сваім распрацоўшчыкам і канчатковым карыстальнікам карыснымі адказамі ў адпаведнасці з інструкцыямі, прыносіць карысць чалавецтву з улікам патэнцыйнай выгады і шкоды, а таксама адпавядаць сацыяльным нормам.
Таксама падыход OpenAI уключае некалькі правілаў, якія маюць гарантаваць бяспеку такіх інструментаў:
выконваць субардынацыю (аддаваць прыярытэт камандам распрацоўшчыкаў над камандамі карыстальнікаў);
прытрымлівацца прыдатных законаў;
не несці інфармацыйнай небяспекі;
паважаць аўтараў і іх правы;
абараняць прыватнасць людзей;
не выдаваць у адказах небяспечны (Not Safe For Life) кантэнт.
Акрамя таго, OpenAI прапаноўвае дазволіць кампаніям і карыстальнікам самім вызначаць «пікантнасць» генераваных мадэлямі адказаў.
Як тлумачаць у OpenAI, мэта — атрымаць зваротную сувязь ад грамадскасці, каб лепш вызначыць, як маюць паводзіць сябе АІ-мадэлі. Фрэймворк дапаможа правесці выразнейшую грань паміж тым, што закладзена ў мадэль, а што — баг. На думку OpenAI, мадэлі па змаўчанні мусяць мець на ўвазе добрыя намеры карыстальнікаў і распрацоўшчыкаў, задаваць удакладняльныя пытанні, не пераступаць межаў, прытрымлівацца аб’ектыўнага пункта гледжання, перашкаджаць распальванню нянавісці, не спрабаваць нікога пераканаць або выказваць няўпэўненасць.
Model Spec пакуль не будзе распаўсюджвацца на ўжо дзейныя мадэлі OpenAI, напрыклад GPT-4 і DALL-E 3. Яны працягнуць працаваць па бягучых палітыках выкарыстання.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.