AWS — подразделение облачных вычислений Amazon — анонсировало новый опенсорный проект Neo-AI для работы с моделями машинного обучения, сообщает TechCrunch.
Инструмент упрощает настройку ML-моделей для развёртывания на различных платформах на границе сети. Кроме того, инструмент конвертирует модели в общий формат, чтобы избежать проблем с совместимостью с устройствами, на которых они будут выполняться.
Обычно разработчикам приходится вручную адаптировать модели под конфигурации аппаратного и программного обеспечения разнообразных платформ. Особенно трудно кастомизировать модели для граничных устройств, которые имеют ограниченную вычислительную мощность и память.
Neo-AI поддерживает модели TensorFlow, MXNet, PyTorch, ONNX и XGBoost. По словам AWS, инструмент даже способен вдвое ускорять эти модели без потерь в точности. Что касается «железа», Neo-AI совместим с чипами Intel, Nvidia и ARM, а в ближайшее время список расширят Xilinx, Cadence и Qualcomm. Все эти компании, за исключением Nvidia, также принимают участие в проекте.
Как отмечает руководитель подразделения по исследованиям искусственного интеллекта Intel Навин Рао, чтобы получить максимальную отдачу от ИИ, развёртывание моделей на границе должно происходить так же легко, как и в дата-центре или облаке. С помощью Neo-AI производители устройств и поставщики систем могут добиться лучшей производительности моделей, созданных практически в любом фреймворке, на платформах на базе любых вычислительных платформ Intel.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.