Support us

Взлом OpenAI: что известно об атаке

Компания знала о взломе внутренней переписки сотрудников, но не стала говорить об этом публично и сообщать об атаке ФБР. The New York Times узнала подробности инцидента.

1 комментарий
Взлом OpenAI: что известно об атаке

Компания знала о взломе внутренней переписки сотрудников, но не стала говорить об этом публично и сообщать об атаке ФБР. The New York Times узнала подробности инцидента.

В начале 2023 года анонимный хакер сумел проникнуть во внутренние системы обмена сообщениями OpenAI. По словам источника в компании, злоумышленник успел похитить сведения о технологических наработках стартапа. Также ему удалось узнать подробности о новейших достижениях в сфере ИИ из дискуссий сотрудников на форуме. Однако системы, где создаются продукты и содержится информация о них, якобы не пострадали.

OpenAI не стала предавать огласке этот инцидент, поскольку посчитала, что никакая информация о клиентах и партнерах не была украдена. О взломе сообщили на общем собрании сотрудников в апреле 2023 года, а также уведомили об этом совет директоров. Руководители не посчитали инцидент угрозой национальной безопасности и не стали информировать ФБР и правоохранительные органы.

Тем не менее менеджер OpenAI Леопольд Ашенбреннер после собрания направил совету директоров записку, в которой сообщил, что компания прилагает недостаточно усилий для защиты своих секретов от вмешательства иностранных государств. Об анонимном хакере практически ничего неизвестно, источники утверждают, что он не связан с правительствами и разведками других стран.

Ашенбреннера уволили из-за утечки другий информации, но он считает свое увольнение политически мотивированным. Бывший менеджер решил рассказать о случившемся взломе публично. В компании отреагировали на его интервью жестко. «Мы ценим обеспокоенность, которую Леопольд выражал во время работы в OpenAI, но это не является причиной его увольнения», — заявила пресс-секретарь OpenAI Лиз Буржуа.

Дорогое удовольствие: данные для ИИ имеют такую цену которую может позволить себе только бигтех
Дорогое удовольствие: данные для ИИ имеют такую цену, которую может позволить себе только бигтех
По теме
Дорогое удовольствие: данные для ИИ имеют такую цену, которую может позволить себе только бигтех

«Хотя мы разделяем его приверженность созданию безопасного искусственного интеллекта, мы не согласны со многими заявлениями, которые он с тех пор сделал о нашей работе. Это касается его характеристики нашей системы безопасности, в частности, этот инцидент, который мы рассмотрели и которым поделились с нашим правлением до того, как он присоединился к компании», — добавила она.

Однако подозрения в участии китайских спецслужб во взломе могут быть небезосновательны. В июне этого года президент Microsoft Брэд Смит дал показания в Конгрессе США, где заявил, что китайские хакеры использовали системы компании для широкомасштабной атаки на сети федерального правительства. Но законодательство Калифорнии и США не может препятствовать иностранным специалистам работать в компании, также этот запрет существенно затруднит разработку ИИ в США.

Китайские компании создают собственные системы, которые почти не уступают по мощности ведущим системам США. По некоторым показателям Китай обогнал Соединенные Штаты как крупнейший производитель специалистов в области искусственного интеллекта, поскольку в этой стране работает почти половина ведущих исследователей в мире.

В сфере ИИ-разработок до сих пор идет дискуссия, насколько технологии могут представлять угрозу национальной безопасности. Например, соучредитель и президент Anthropic Даниэла Амодей считает, что если бы сведения об ИИ-технологиях похитили и передали другим, то это не представляло бы никакого серьезного риска. «Если бы наши знания передали кому-то другому, могло бы это нанести огромный вред обществу? Наш ответ: нет, вероятно нет», — сказал представитель Anthropic.

«Крупнейшая кража в США»: ИИ-стартапы похоронят копирайт
«Крупнейшая кража в США»: ИИ-стартапы похоронят копирайт
По теме
«Крупнейшая кража в США»: ИИ-стартапы похоронят копирайт

Другие компании, такие как Meta, свободно делятся своими разработками с другими в виде ПО с открытым исходным кодом. В компании считают, что опасности, связанные с современными технологиями ИИ, невелики и что совместное использование открытого кода позволяет инженерам и исследователям быстро выявлять и устранять проблемы. В первую очередь ограничения в моделях ИИ накладывают в надежде помешать пользователям распространять дезинформацию и нарушать закон.

Рассуждения о том, что ИИ может однажды способствовать созданию нового биологического оружия или помочь взломать правительственные системы, остаются умозрительными. Чтобы снизить риски, OpenAI создала Комитет по безопасности для изучения возможностей технологии. Его возглавил генеральный директор компании Сэм Альтман. В состав комитета вошел Пол Накасоне, бывший армейский генерал, возглавлявший Агентство национальной безопасности США. Также он вошел в совет директоров OpenAI.

Американские чиновники настаивают на принятии законов, которое запрещали бы компаниям выпускать определенные технологии ИИ и штрафовали бы их на миллионы долларов в случае причинения вреда. Однако эксперты полагают, что до таких случаев еще годы и даже десятилетия. Это не означает, что о потенциальных опасностях ИИ не нужно думать уже сейчас.

«Даже если вероятность наихудших сценариев относительно невелика, если они имеют серьезные последствия, мы обязаны отнестись к ним серьезно. Я не думаю, что это научная фантастика, как многие любят утверждать», — заявила Сьюзан Райс, бывший советник Джо Байдена по внутренней политике и бывший советник Барака Обамы по национальной безопасности.

Как хакеры помогли владельцу криптокошелька получить свои $3 000 000
Как хакеры помогли владельцу криптокошелька получить свои $3 000 000
По теме
Как хакеры помогли владельцу криптокошелька получить свои $3 000 000
ЕС до сих пор не знает что делать с обработкой личных данных в ChatGPT
ЕС до сих пор не знает, что делать с обработкой личных данных в ChatGPT
По теме
ЕС до сих пор не знает, что делать с обработкой личных данных в ChatGPT
Кошки на луне и клей для пиццы: Google вручную удаляет странные ответы своего ИИ-поисковика
Кошки на луне и клей для пиццы: Google вручную удаляет странные ответы своего ИИ-поисковика
По теме
Кошки на луне и клей для пиццы: Google вручную удаляет странные ответы своего ИИ-поисковика
Читайте также
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Украинские хакеры вычислили базу российских военных, притворившись девушками в соцсетях
Украинские хакеры вычислили базу российских военных, притворившись девушками в соцсетях
Украинские хакеры вычислили базу российских военных, притворившись девушками в соцсетях
2 комментария
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
3 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

0

Компания эта мутная просто донельзя.
То одно то другое.