Два ключевых сотрудника покинули OpenAI из-за споров о безопасности ИИ

Уход ключевых специалистов по безопасности ИИ ставит под сомнение стремление OpenAI ответственно подходить к разработке новых моделей ИИ.

3 комментария

Ранее два ключевых сотрудника стартапа покинули свои должности. Это главный научный сотрудник Илья Суцкевер и его коллега Ян Лейке. Они, в частности, отвечали за разработку ответственную разработку ИИ. Их уход может быть связан с разногласиями с руководством компании по поводу обеспечения безопасности разработок.

Лейке заявлял, что не согласен с руководством компании в этих вопросах и что ситуация достигла критической точки. Суцкецер был одним из инициаторов увольнения Сэма Альтана с поста генерального директора OpenAI. Однако после возвращения Альтмана в компанию Суцкевер выразил сожаление в своих действиях.

В ответ на уход Суцкевера и Лейке он вместе с президентом Грегом Брокманом опубликовал заявление, в котором объяснил позицию компании. В сообщении сказано, что OpenAI уже призывала к международному регулированию ИИ. Альтман также предлагал создать международное агентство для обеспечения тестирования систем ИИ.

Однако эти действия не убедили ушедших сотрудников. По словам Лейке, проблемы с безопасностью разработки ИИ очень сложно решать, и он не уверен, что компания движется в правильном направлении. Заявления прозвучали после того, как Wired сообщил, что OpenAI полностью распустила команду, которая занималась рисками ИИ.

Reddit запартнёрился с OpenAI, поможет с обучением ИИ 
По теме
Reddit запартнёрился с OpenAI, поможет с обучением ИИ
Один из основателей OpenAI покинул компанию
По теме
Один из основателей OpenAI покинул компанию
Bloomberg: Apple почти договорилась с OpenAI о внедрении ChatGPT в iOS 18
По теме
Bloomberg: Apple почти договорилась с OpenAI о внедрении ChatGPT в iOS 18

Читать на dev.by