Как помочь редакции делать еще больше полезного контента?
Support us

Бывший топ-менеджер раскритиковал OpenAI за «переписывание» безопасности ИИ

Бывший руководитель отдела политики OpenAI Майлз Брундаж раскритиковал компанию за отказ от прежнего поэтапного подхода к безопасности искусственного интеллекта в пользу ускоренного развертывания новых систем.

Оставить комментарий
Бывший топ-менеджер раскритиковал OpenAI за «переписывание» безопасности ИИ

Бывший руководитель отдела политики OpenAI Майлз Брундаж раскритиковал компанию за отказ от прежнего поэтапного подхода к безопасности искусственного интеллекта в пользу ускоренного развертывания новых систем.

В новой политике безопасности OpenAI заявила, что извлекла уроки из «чрезмерной осторожности» при выпуске текущих систем, ранее этот подход позволил компании обеспечить контроль над моделью GPT-2. Теперь разработка «общего ИИ» (AGI) представляет «непрерывный путь», требующий итеративного развертывания и обучения на основе уже действующих систем.

Однако Брундаж считает, что такой подход подразумевает отказ от пошагового контроля и оправдывает ускоренное продвижение технологий в ущерб долгосрочным мерам предосторожности. По его мнению, ранее применявшаяся осторожная стратегия позволяла экспертам вовремя оценивать риски, а теперь OpenAI «переписывает историю» своих мер безопасности.

Компания, ранее балансировавшая между безопасностью и стремлением опередить конкурентов, теперь, по мнению бывшего топ-менеджера, вынуждена ускорять выпуск новых продуктов. Особенно ярко это проявляется в условиях конкуренции с китайским стартапом DeepSeek, появление которой, по признанию гендиректора Сэма Альтмана, снизило технологическое лидерство OpenAI.

Брундаж также выразил опасения, что новая политика OpenAI устанавливает стандарт, который требует убедительных доказательств реальных угроз безопасности новых систем. Эксперт считает, что такая позиция потенциально может привести к серьезным рискам при стремительном прогрессе в области ИИ: специалисты просто не будут успевать своевременно выявлять угрозы.

OpenAI неоднократно обвиняли в том, что компания отдает приоритет быстрым релизам продуктов в ущерб безопасности. В прошлом году группа по готовности к AGI была распущена, а ряд специалистов по безопасности и политике ИИ перешли в другие организации.

WSJ: cтартап бывшего конкурента Альтмана в OpenAI работает в обстановке полной секретности
WSJ: стартап бывшего конкурента Альтмана в OpenAI работает в обстановке полной секретности
По теме
WSJ: стартап бывшего конкурента Альтмана в OpenAI работает в обстановке полной секретности
OpenAI готовит подписку за $20 тысяч в месяц
OpenAI готовит подписку за $20 тысяч в месяц
По теме
OpenAI готовит подписку за $20 тысяч в месяц
Суд в США пресёк попытку Маска помешать OpenAI стать коммерческой
Суд в США пресёк попытку Маска помешать OpenAI стать коммерческой
По теме
Суд в США пресёк попытку Маска помешать OpenAI стать коммерческой
Помогите нам делать больше полезного контента — поддержите редакцию.

Все способы поддержки

Читайте также
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
4 комментария
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.