Гонка без тормозов: бигтехи выпускают ИИ-модели, не думая о безопасности

Ведущие технологические компании все активнее превращают искусственный интеллект из исследовательской площадки в двигатель коммерческого роста. Разработчики жертвуют фундаментальными исследованиями и полноценными проверками безопасности ради скорейшего вывода продуктов на рынок.

1 комментарий

Еще несколько лет назад Meta, Google и OpenAI щедро финансировали фундаментальные исследования: ученым давали доступ к сверхмощным кластерам дата-центров, поощряли публикации и открытый обмен идеями. Все изменилось после громкого успеха ChatGPT в 2022 году: с тех пор почти каждый крупный игрок стремится быстрее монетизировать генеративные модели, ожидая, что рынок ИИ-сервисов к 2028 году вырастет до триллиона долларов.

Фундаментальная лаборатория Meta FAIR долгое время занималась передовыми исследованиями без прямой продуктовой привязки. Теперь она подчинена подразделению GenAI, отвечающему за линейку моделей Llama и ассистента Meta AI. Ученые переводятся в продуктовые команды или покидают компанию, опасаясь, что эксперименты без мгновенного коммерческого эффекта стали нежелательны.

В Alphabet исследовательская группа Google Brain уже поглощена DeepMind, а новая флагманская ИИ-модель Gemini 2.5 вышла без полноценной «карты модели» — документа, описывающего риски и ограничения. Сооснователь Google Сергей Брин потребовал ускорить вывод продуктов и перестать выпускать модели с излишними фильтрами. Бизнесмен подчеркнул, что в гонке за искусственным общим интеллектом (AGI) важны «реальные победы, масштабируемые для пользователей».

OpenAI, изначально некоммерческий проект, все активнее балансирует между миссией и потребностями инвесторов. Компания сократила сроки тестирования моделей с месяцев до дней, а часть проверок переносит на внешних партнеров, которым, по их словам, не хватает времени и доступа к внутренним данным. Выпущенный весной GPT-4o вызвал волну критики из-за чересчур «льстивых» ответов, и OpenAI была вынуждена откатить обновление, признав, что недооценила отзывы тестировщиков.

По словам Джеймса Уайта из CalypsoAI, новые модели «лучше отвечают на вопросы, но и лучше помогают злоумышленникам»: их легче уговорить раскрыть инструкции по созданию оружия или взлому систем. Бывший исследователь OpenAI Стивен Адлер предупреждает: проверки лишь после тренировки уже недостаточны, нужны механизмы, позволяющие снижать риски еще на ранних этапах обучения.

Эксперты едины во мнении: ускорение коммерциализации делает рынок ИИ более динамичным, но одновременно увеличивает вероятность появления неподконтрольных моделей. Пока одни топ-менеджеры требуют «меньше фильтров и больше фичей», исследователи безопасности призывают к прозрачности, полноформатным карточкам моделей и независимым аудитам каждой крупной версии.

Microsoft отключит доступ к API поиска Bing и предлагает перейти на ИИ 
По теме
Microsoft отключит доступ к API поиска Bing и предлагает перейти на ИИ
Развитие рассуждающего ИИ скоро упрется в потолок, считают эксперты
По теме
Развитие рассуждающего ИИ скоро упрется в потолок, считают эксперты
OpenAI: ИИ научился сам генерировать новые знания
По теме
OpenAI: ИИ научился сам генерировать новые знания

Читать на dev.by