Начните карьеру в cybersecurity: вакансии .Net | Python+.Net 🔥 Warsaw

Amazon открыла исходники инструмента для глубинного обучения в поиске

Оставить комментарий
Amazon открыла исходники инструмента для глубинного обучения в поиске

Компания Amazon выложила на GitHub исходники библиотеки DSSTNE для глубинного обучения, последовав таким образом за ИТ-гигантами Yahoo, Google и Microsoft, ранее сделавшими собственные инструменты для машинного обучения общедоступными, сообщает VentureBeat.

Читать далее

Фото: REUTERS/Rick Wilking.

Как отмечает издание, Amazon не входит в число самых активных технологических компаний мира в области ПО с открытым исходным кодом. Свой же достаточно неожиданный шаг с релизом DSSTNE ecommerce-лидер объяснил в репозитории на GitHub следующим образом:

«Мы выпускаем DSSTNE в качестве ПО с открытым исходным кодом для того, чтобы развитие глубинного обучения могло выйти за рамки механизмов распознавания речи и объектов и продолжаться в таких областях, как поиск и рекомендации. Мы надеемся, что используя наш инструмент, исследователи во всем мире усовершенствуют его».

В отличие от некоторых других фреймворков, DSSTNE может обучать, используя несколько графических процессоров (GPU) одновременно, и уже демонстрирует преимущества в производительности по сравнению, например, с ультрасовременной библиотекой машинного обучения TensorFlow. Так, по утверждению компании, DSSTNE работает в 2.1 раза быстрее TensorFlow на g2.8xlarge GPU в облаке Amazon Web Services (AWS).

Также отмечается, что основанный на языке C++ алгоритм DSSTNE отличается от конкурентов простотой использования.

«Язык описания сетевой базы данных DSSTNE гораздо проще, чем у Caffe. Так, для описания популярной модели распознавания изображений AlexNet нам потребовалось всего 33 строчки кода, тогда как в Caffe — более 300», — написал представитель Amazon на странице часто задаваемых вопросов.

Докуменетация DSSTNE доступна здесь.  

Крупнейшие ИT-компании мира и исследовательские лаборатории ведут активные разработки в области искусственного интеллекта и машинного обучения. В 2015-м Google сделала свою систему машинного обучения TensorFlow открытой для всех желающих. Вслед за ней Microsoft открыла код среды для машинного обучения и выложила на GitHub исходники инструментария CNTK с реализацией алгоритмов глубокого машинного обучения. Yahoo в этом году открыла для всех желающих крупнейший массив данных в области машинного обучения.

Подписывайтесь на «Что к чему» —
анамнез и главные симптомы беларуского ИТ.
Цифры, графика, ничего лишнего. Выходит раз в 2 недели.
Спасибо! На указанный адрес отправлено письмо для подтверждения подписки.
Читайте также
TinyML, No-code и обучение с подкреплением: новейшие тренды в машинном обучении
TinyML, No-code и обучение с подкреплением: новейшие тренды в машинном обучении
TinyML, No-code и обучение с подкреплением: новейшие тренды в машинном обучении
Пока 20% топ-менеджеров утверждают, что машинное обучение является существенной частью их бизнеса, неудивительно, что стоимость мирового рынка машинного обучения, по некоторым оценкам, достигнет $117 млрд к концу 2027 года. Мы перевели материал Udacity о семи самых обсуждаемых тенденциях в машинном обучении в 2022 году.
Google, Apple, Microsoft постепенно выносят производство из Китая
Google, Apple, Microsoft постепенно выносят производство из Китая
Google, Apple, Microsoft постепенно выносят производство из Китая
2 комментария
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.