Гонка без тармазоў: бігтэхі выпускаюць ШІ-мадэлі, не думаючы пра бяспеку
Вядучыя тэхналагічныя кампаніі ўсё актыўней ператвараюць штучны інтэлект з даследчай пляцоўкі ў рухавік камерцыйнага росту. Распрацоўшчыкі ахвяруюць фундаментальнымі даследаваннямі і паўнавартаснымі праверкамі бяспекі дзеля як мага хутчэйшага выхаду прадуктаў на рынак.
Яшчэ некалькі гадоў таму Meta, Google і OpenAI шчодра фінансавалі фундаментальныя даследаванні: навукоўцам давалі доступ да звышмагутных кластараў дата-цэнтраў, заахвочвалі публікацыі і адкрыты абмен ідэямі. Усё змянілася пасля гучнага поспеху ChatGPT у 2022 годзе: з таго часу амаль кожны буйны гулец імкнецца як мага хутчэй манетызаваць генератыўныя мадэлі, спадзеючыся, што рынак ШІ-сэрвісаў да 2028 года вырасце да трыльёна даляраў.
Фундаментальная лабараторыя Meta FAIR доўгі час займалася перадавымі даследаваннямі без прамой прадуктавай прывязкі. Цяпер яна падпарадкоўваецца падраздзяленню GenAI, якое адказвае за лінейку мадэляў Llama і асістэнта Meta AI. Навукоўцаў пераводзяць у прадуктавыя каманды або яны пакідаюць кампанію, баючыся, што эксперыменты без імгненнага камерцыйнага эфекту сталі непажаданымі.
У Alphabet даследчая група Google Brain ужо паглынута DeepMind, а новая флагманская ШІ-мадэль Gemini 2.5 выйшла без паўнавартаснай «карты мадэлі» — дакумента, які апісвае рызыкі і абмежаванні. Сузаснавальнік Google Сяргей Брын запатрабаваў паскорыць выхад прадуктаў і спыніць выпуск мадэляў з лішнімі фільтрамі. Бізнесмен падкрэсліў, што ў гонцы за агульным штучным інтэлектам (AGI) важныя «рэальныя перамогі, маштабавальныя для карыстальнікаў».
OpenAI, якая першапачаткова была некамерцыйным праектам, усё актыўней балансуе паміж місіяй і патрэбамі інвестараў. Кампанія скараціла тэрміны тэставання мадэляў з месяцаў да дзён, а частку праверак пераносіць на знешніх партнёраў, якім, па іх словах, не хапае часу і доступу да ўнутраных даных. Выпушчаны вясной GPT-4o выклікаў хвалю крытыкі з-за празмерна «ліслівых» адказаў, і OpenAI была вымушаная вярнуць абнаўленне, прызнаўшы, што недаацаніла водгукі тэстараў.
Паводле слоў Джэймса Уайта з CalypsoAI, новыя мадэлі «лепш адказваюць на пытанні, але і лепш дапамагаюць зламыснікам»: іх лягчэй пераканаць раскрыць інструкцыі па стварэнні зброі або ўзлому сістэм. Былы даследчык OpenAI Стывен Адлер папярэджвае: праверак толькі пасля навучання ўжо недастаткова, патрэбныя механізмы зніжэння рызык яшчэ на ранніх этапах навучання.
Эксперты адзіныя ў меркаванні: паскарэнне камерцыялізацыі робіць рынак ШІ больш дынамічным, але адначасова павышае верагоднасць з’яўлення некантраляваных мадэляў. Пакуль адны топ-менеджары патрабуюць «менш фільтраў і больш функцый», спецыялісты па бяспецы заклікаюць да празрыстасці, паўнавартасных карт мадэляў і незалежных аўдытаў кожнай буйной версіі.
Читать на dev.by