OpenAI следит за сотрудниками, потому что боится шпионажа со стороны Китая
Компания усилила внутреннюю безопасность, чтобы защитить свои передовые ИИ-модели от копирования конкурентами. Это решение было принято на фоне усиления глобальной гонки в сфере искусственного интеллекта и обвинений китайского разработчика Deepseek в копировании разработок OpenAI.
По данным Financial Times, OpenAI ввела строгие ограничения на доступ к конфиденциальной информации, изолировала ключевые системы от интернета и внедрила биометрический контроль доступа. В рамках новой политики «information tenting» (ограниченного информирования) сотрудники допускаются к работе только над теми проектами, к которым у них есть конкретное разрешение. Например, при разработке модели о1 информация о проекте обсуждалась исключительно в кругу допущенных лиц.
Дополнительно ужесточены правила физического доступа в дата-центры. В команду безопасности наняты специалисты с военным опытом, включая экс-сотрудника Palantir Дейна Стаки и бывшего генерала армии США Пола Накасоне. Хотя в OpenAI утверждают, что меры являются частью долгосрочной стратегии по защите интеллектуальной собственности, источники указывают на растущую обеспокоенность попытками шпионажа со стороны иностранных государств — прежде всего Китая.
Американские спецслужбы ранее предупреждали о возможной государственной поддержке компаний вроде Deepseek и связанных с этим угрозах для национальной и экономической безопасности США. В ответ OpenAI обновила свою Preparedness Framework — систему оценки рисков, усилив контроль за разработками, способными к автономному воспроизведению или кибератакам. Вместе с Anthropic компания также проинформировала американские власти о потенциальных угрозах, исходящих от Deepseek и аналогичных игроков.
Читать на dev.by