Meta распустила команду по безопасности ИИ
Компания расформировала подразделение Responsible AI (RAI), которое занималось обеспечением безопасности решений в области искусственного интеллекта.
Компания расформировала подразделение Responsible AI (RAI), которое занималось обеспечением безопасности решений в области искусственного интеллекта.
Сотрудников подразделения распределят по другим отделам компании. Большинство из них перешло в подразделение по разработке продуктов генеративного ИИ Generative AI, где «продолжат поддерживать соответствующие усилия Meta по ответственному развитию и использованию ИИ». Часть сотрудников будет работать в команде AI Infrastructure.
«Мы продолжаем уделять первоочередное внимание и инвестировать в безопасную и ответственную разработку ИИ, и эти изменения позволят нам лучше масштабироваться для удовлетворения наших будущих потребностей», — сообщил представитель компании.
Ранее в RAI провели реструктуризацию, которая включала увольнения, после чего в подразделении осталась лишь «оболочка команды». Generative AI было создано в феврале этого года. В нем занимаются разработкой продуктов, генерирующих язык и изображения. В октябре Meta начала внедрять инструменты генеративного ИИ — большую языковую модель Llama 2 и чат-бот с ИИ — в свои продукты.
Обеспечение безопасности ИИ-систем стало приоритетом ведущих разработчиком отрасли после того, как регуляторы стали обращать пристальное внимание на потенциальный вред новой технологии. В июле этого года Anthropic, Google, Microsoft и OpenAI создали отраслевую группу, которая должна выработать стандарты безопасности для искусственного интеллекта и новых продуктов компаний.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Это ИИ уже взбунтовался. Своего создателя тоже уволил