Живете в Польше? Поддержите devby 1,5% налога: бесплатно и за 5 минут 🤗
Support us

«Живём один раз»: глава OpenAI сам нарушает правила безопасности ИИ

Глава OpenAI Сэм Альтман признался, что нарушил собственное правило по безопасности ИИ всего через пару часов после того, как стал его применять.

Оставить комментарий
«Живём один раз»: глава OpenAI сам нарушает правила безопасности ИИ

Глава OpenAI Сэм Альтман признался, что нарушил собственное правило по безопасности ИИ всего через пару часов после того, как стал его применять.

Выступая на сессии вопросов и ответов для разработчиков, он рассказал, что из-за удобства дал ИИ-агенту полный доступ к своему компьютеру — и считает, что так поступают многие пользователи.

По словам Альтмана, главная опасность заключается в том, что мощь и удобство ИИ-систем подталкивают людей передавать им все больше контроля без готовой инфраструктуры безопасности. «Вероятность серьезных сбоев низкая, но последствия могут быть катастрофическими. И мы просто скользим в это состояние с мыслью „ну, живем один раз, надеюсь, все будет нормально“», — сказал он.

Альтман признался, что изначально сомневался, стоит ли давать агенту полный доступ, но быстро передумал, потому что модель «ведет себя разумно». Его тревожит, что общество может «проспать» момент, когда доверие к сложным ИИ-моделям станет массовым, а систем защиты и контроля все еще не будет.

По мере роста возможностей ИИ, отметил Альтман, уязвимости в безопасности или проблемы согласованности целей могут оставаться незамеченными неделями или месяцами. При этом «большой инфраструктуры безопасности» для таких систем пока не существует. Он добавил, что создание подобных решений могло бы стать перспективной нишей для стартапов.

Кроме того, Альтман признал, что GPT-5 уступает GPT-4.5 в редакторском и литературном письме. По его словам, с появлением моделей рассуждения акцент сместился в сторону логики и программирования. При этом он подчеркнул, что в будущем OpenAI стремится к универсальным моделям, которые будут сочетать сильные способности к рассуждению с качественным письмом.

Следующие 2 года решат всё: глава Anthropic написал эссе о будущем ИИ
Следующие 2 года решат всё: глава Anthropic написал эссе о будущем ИИ 
По теме
Следующие 2 года решат всё: глава Anthropic написал эссе о будущем ИИ
Пентагон и Anthropic конфликтуют из-за военного применения ИИ
Пентагон и Anthropic конфликтуют из-за военного применения ИИ 
По теме
Пентагон и Anthropic конфликтуют из-за военного применения ИИ
Mozilla собирает «альянс бунтарей» в ИИ чтобы противостоять OpenAI и Anthropic
Mozilla собирает «альянс бунтарей» в ИИ, чтобы противостоять OpenAI и Anthropic
По теме
Mozilla собирает «альянс бунтарей» в ИИ, чтобы противостоять OpenAI и Anthropic
🎊 Dzik Pic Store открыт и готов принимать заказы!

Заходи к нам в магазин

Читайте также
Как ИИ помогает малому бизнесу — и где бесполезен
Как ИИ помогает малому бизнесу — и где бесполезен
Как ИИ помогает малому бизнесу — и где бесполезен
ИИ сократит не всех: учёные вспомнили об одном важном факторе
ИИ сократит не всех: учёные вспомнили об одном важном факторе
ИИ сократит не всех: учёные вспомнили об одном важном факторе
Как чат-боты подталкивают к неверным решениям — исследование
Как чат-боты подталкивают к неверным решениям — исследование
Как чат-боты подталкивают к неверным решениям — исследование
Кофаундер a16z: катастрофа — не то, что ИИ отберёт работу, а то, что случилось бы, если бы его не было
Кофаундер a16z: катастрофа — не то, что ИИ отберёт работу, а то, что случилось бы, если бы его не было
Кофаундер a16z: катастрофа — не то, что ИИ отберёт работу, а то, что случилось бы, если бы его не было

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.