Гонка без тормозов: бигтехи выпускают ИИ-модели, не думая о безопасности
Ведущие технологические компании все активнее превращают искусственный интеллект из исследовательской площадки в двигатель коммерческого роста. Разработчики жертвуют фундаментальными исследованиями и полноценными проверками безопасности ради скорейшего вывода продуктов на рынок.
Еще несколько лет назад Meta, Google и OpenAI щедро финансировали фундаментальные исследования: ученым давали доступ к сверхмощным кластерам дата-центров, поощряли публикации и открытый обмен идеями. Все изменилось после громкого успеха ChatGPT в 2022 году: с тех пор почти каждый крупный игрок стремится быстрее монетизировать генеративные модели, ожидая, что рынок ИИ-сервисов к 2028 году вырастет до триллиона долларов.
Фундаментальная лаборатория Meta FAIR долгое время занималась передовыми исследованиями без прямой продуктовой привязки. Теперь она подчинена подразделению GenAI, отвечающему за линейку моделей Llama и ассистента Meta AI. Ученые переводятся в продуктовые команды или покидают компанию, опасаясь, что эксперименты без мгновенного коммерческого эффекта стали нежелательны.
В Alphabet исследовательская группа Google Brain уже поглощена DeepMind, а новая флагманская ИИ-модель Gemini 2.5 вышла без полноценной «карты модели» — документа, описывающего риски и ограничения. Сооснователь Google Сергей Брин потребовал ускорить вывод продуктов и перестать выпускать модели с излишними фильтрами. Бизнесмен подчеркнул, что в гонке за искусственным общим интеллектом (AGI) важны «реальные победы, масштабируемые для пользователей».
OpenAI, изначально некоммерческий проект, все активнее балансирует между миссией и потребностями инвесторов. Компания сократила сроки тестирования моделей с месяцев до дней, а часть проверок переносит на внешних партнеров, которым, по их словам, не хватает времени и доступа к внутренним данным. Выпущенный весной GPT-4o вызвал волну критики из-за чересчур «льстивых» ответов, и OpenAI была вынуждена откатить обновление, признав, что недооценила отзывы тестировщиков.
По словам Джеймса Уайта из CalypsoAI, новые модели «лучше отвечают на вопросы, но и лучше помогают злоумышленникам»: их легче уговорить раскрыть инструкции по созданию оружия или взлому систем. Бывший исследователь OpenAI Стивен Адлер предупреждает: проверки лишь после тренировки уже недостаточны, нужны механизмы, позволяющие снижать риски еще на ранних этапах обучения.
Эксперты едины во мнении: ускорение коммерциализации делает рынок ИИ более динамичным, но одновременно увеличивает вероятность появления неподконтрольных моделей. Пока одни топ-менеджеры требуют «меньше фильтров и больше фичей», исследователи безопасности призывают к прозрачности, полноформатным карточкам моделей и независимым аудитам каждой крупной версии.
Читать на dev.by