Два ключевых сотрудника покинули OpenAI из-за споров о безопасности ИИ
Уход ключевых специалистов по безопасности ИИ ставит под сомнение стремление OpenAI ответственно подходить к разработке новых моделей ИИ.
Уход ключевых специалистов по безопасности ИИ ставит под сомнение стремление OpenAI ответственно подходить к разработке новых моделей ИИ.
Ранее два ключевых сотрудника стартапа покинули свои должности. Это главный научный сотрудник Илья Суцкевер и его коллега Ян Лейке. Они, в частности, отвечали за разработку ответственную разработку ИИ. Их уход может быть связан с разногласиями с руководством компании по поводу обеспечения безопасности разработок.
Лейке заявлял, что не согласен с руководством компании в этих вопросах и что ситуация достигла критической точки. Суцкецер был одним из инициаторов увольнения Сэма Альтана с поста генерального директора OpenAI. Однако после возвращения Альтмана в компанию Суцкевер выразил сожаление в своих действиях.
В ответ на уход Суцкевера и Лейке он вместе с президентом Грегом Брокманом опубликовал заявление, в котором объяснил позицию компании. В сообщении сказано, что OpenAI уже призывала к международному регулированию ИИ. Альтман также предлагал создать международное агентство для обеспечения тестирования систем ИИ.
Однако эти действия не убедили ушедших сотрудников. По словам Лейке, проблемы с безопасностью разработки ИИ очень сложно решать, и он не уверен, что компания движется в правильном направлении. Заявления прозвучали после того, как Wired сообщил, что OpenAI полностью распустила команду, которая занималась рисками ИИ.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
статью вычитывали ответственно вычитывали редакторы
Суцкевер, говорят, ведёт перегооворы со Сбером.
Слабо верится в эти слухи, но мало ли.
ахаха, ну ты очень наивный парень если поверил в это