Вялікабрытанія запускае платформу для тэсціравання бяспекі АІ
Брытанскі інстытут бяспекі АІ (AISI) запусціў платформу Inspect, прызначаную для тэсціравання і ацэнкі бяспекі штучнага інтэлекту.
Брытанскі інстытут бяспекі АІ (AISI) запусціў платформу Inspect, прызначаную для тэсціравання і ацэнкі бяспекі штучнага інтэлекту.
Брытанскі інстытут бяспекі АІ (AISI) запусціў платформу Inspect, прызначаную для тэсціравання і ацэнкі бяспекі штучнага інтэлекту.
Інструменты Inspect будуць даступныя па ліцэнзіі з адкрытым зыходным кодам, уключаючы ліцэнзіі MIT. Яны ацэняць пэўныя магчымасці мадэляў АІ у розных сферах, уключаючы асноўныя веды мадэляў і здольнасць разважаць.
Платформа складаецца з трох асноўных кампанентаў: набораў даных, інструментаў рашэння і інструментаў ацэнкі. Наборы даных даюць узоры для ацэначных тэстаў, інструменты рашэння праводзяць тэсты, інструменты ацэнкі сумуюць балы тэстаў у метрыкі.
Кампаненты можна дапоўніць з дапамогай іншых пакетаў, напісаных на Python. Распрацоўшчыкі спадзяюцца, што Inspect будуць выкарыстоўваць таксама для адаптацыі і развіцця платформы з адкрытым зыходным кодам для высакаякаснай ацэнкі.
Раней Нацыянальны інстытут стандартаў і тэхналогій ЗША (NIST) анансаваў праграму Nist GenAI, прызначаную для ацэнкі розных тэхналогій генератыўнага АІ, у тым ліку для стварэння тэксту і выяў.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.