Meta распустила команду по безопасности ИИ

Компания расформировала подразделение Responsible AI (RAI), которое занималось обеспечением безопасности решений в области искусственного интеллекта.

1 комментарий

Сотрудников подразделения распределят по другим отделам компании. Большинство из них перешло в подразделение по разработке продуктов генеративного ИИ Generative AI, где «продолжат поддерживать соответствующие усилия Meta по ответственному развитию и использованию ИИ». Часть сотрудников будет работать в команде AI Infrastructure.

«Мы продолжаем уделять первоочередное внимание и инвестировать в безопасную и ответственную разработку ИИ, и эти изменения позволят нам лучше масштабироваться для удовлетворения наших будущих потребностей», — сообщил представитель компании.

Ранее в RAI провели реструктуризацию, которая включала увольнения, после чего в подразделении осталась лишь «оболочка команды». Generative AI было создано в феврале этого года. В нем занимаются разработкой продуктов, генерирующих язык и изображения. В октябре Meta начала внедрять инструменты генеративного ИИ — большую языковую модель Llama 2 и чат-бот с ИИ — в свои продукты.

Обеспечение безопасности ИИ-систем стало приоритетом ведущих разработчиком отрасли после того, как регуляторы стали обращать пристальное внимание на потенциальный вред новой технологии. В июле этого года Anthropic, Google, Microsoft и OpenAI создали отраслевую группу, которая должна выработать стандарты безопасности для искусственного интеллекта и новых продуктов компаний.

Бывший гендиректор OpenAI Сэм Альтман нашел новую работу
По теме
Бывший гендиректор OpenAI Сэм Альтман нашел новую работу
OpenAI уволила своего гендиректора Сэма Альтмана. Что происходит?
По теме
OpenAI уволила своего гендиректора Сэма Альтмана. Что происходит?
ИИ впервые превзошел по точности традиционные прогнозы погоды
По теме
ИИ впервые превзошел по точности традиционные прогнозы погоды

Читать на dev.by