Бывший топ-менеджер раскритиковал OpenAI за «переписывание» безопасности ИИ
Бывший руководитель отдела политики OpenAI Майлз Брундаж раскритиковал компанию за отказ от прежнего поэтапного подхода к безопасности искусственного интеллекта в пользу ускоренного развертывания новых систем.
Бывший руководитель отдела политики OpenAI Майлз Брундаж раскритиковал компанию за отказ от прежнего поэтапного подхода к безопасности искусственного интеллекта в пользу ускоренного развертывания новых систем.
В новой политике безопасности OpenAI заявила, что извлекла уроки из «чрезмерной осторожности» при выпуске текущих систем, ранее этот подход позволил компании обеспечить контроль над моделью GPT-2. Теперь разработка «общего ИИ» (AGI) представляет «непрерывный путь», требующий итеративного развертывания и обучения на основе уже действующих систем.
Однако Брундаж считает, что такой подход подразумевает отказ от пошагового контроля и оправдывает ускоренное продвижение технологий в ущерб долгосрочным мерам предосторожности. По его мнению, ранее применявшаяся осторожная стратегия позволяла экспертам вовремя оценивать риски, а теперь OpenAI «переписывает историю» своих мер безопасности.
The bulk of this post is good + I applaud the folks who work on the substantive work it discusses.
But I’m pretty annoyed/concerned by the «AGI in many steps rather than one giant leap» section, which rewrites the history of GPT-2 in a concerning way. https://t.co/IQOdKczJeT
Компания, ранее балансировавшая между безопасностью и стремлением опередить конкурентов, теперь, по мнению бывшего топ-менеджера, вынуждена ускорять выпуск новых продуктов. Особенно ярко это проявляется в условиях конкуренции с китайским стартапом DeepSeek, появление которой, по признанию гендиректора Сэма Альтмана, снизило технологическое лидерство OpenAI.
Брундаж также выразил опасения, что новая политика OpenAI устанавливает стандарт, который требует убедительных доказательств реальных угроз безопасности новых систем. Эксперт считает, что такая позиция потенциально может привести к серьезным рискам при стремительном прогрессе в области ИИ: специалисты просто не будут успевать своевременно выявлять угрозы.
OpenAI неоднократно обвиняли в том, что компания отдает приоритет быстрым релизам продуктов в ущерб безопасности. В прошлом году группа по готовности к AGI была распущена, а ряд специалистов по безопасности и политике ИИ перешли в другие организации.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.