
Сегодня в 17.00 в ПВТ начался вечер памяти белорусского ИТ-бизнесмена, единственного индивидуального предпринимателя среди резидентов Парка Андрея Богомолова, погибшего в горах 30 сентября.
Dev.by публикует колонку Андрея, подготовленную на основе доклада для конференции «Новая реальность: вызовы для Беларуси». Он работал над материалом вместе с редакцией портала до трагических событий.
В своей колонке инженер-исследователь в области AI и машинного обучения MIT Media Lab рассказал, какие технологии машинного обучения доступны уже сегодня и какие из них стоит применять в бизнесе.
История: от IBM Watson до Netflix
Искусственный интеллект развивается уже достаточно давно — началось всё с промышленной робототехники. Были созданы алгоритмы, позволяющие автоматизировать труд человека: алгоритмы линейной оптимизации — в 1827 году, нейросети — в 1957-м. Теория выпуклой оптимизации (convex optimization) позволила значительно изменить статистику и решать вычислительные задачи на элементной базе — «железе», существовавшем в те годы.
В принципе, с тех пор изменилось немногое, не считая вопроса адаптации и снижения стоимости.
фактор: развитие алгоритмов
- линейная оптимизация (Fourier, 1827; Dantzig, 1948)
- выпуклая оптимизация (Fenchel, Rockafellar, 1949-198x)
- neural net perceptron (Rosenblat, 1957)
- SVM (Vapnik & Chervonenkis, 1963)
- CART, random forest (Breinman, 2001)
- deep learning (Schmidhuber, 2005; Hinton, 2006)
- RNN, LSTM (Hopfield, 1982; Hochreiter & Schmidhuber, 1997)
- adversarial networks (Goodfellow et al., 2014)
Прорыв в области решения задач нелинейной оптимизации сделал Лео Брейман. В 2001 году он предложил алгоритм Random Forest, который позволил решать задачи классификации метриками, подобными мышлению человека. В середине 2000-х стал развиваться deep learning.
Сейчас происходит интеграция возможностей человека и машины для решения задач так называемого обучения с учителем. Становятся популярны рекуррентные и генеративно-состязательные сети.
практические результаты
- robotics, 1961
- IBM watson, 2008
- recommender systems, 2010
- ImageNet ILSVRC, 2009
- augmented reality, 199x
- self-driving cars, 2015
- голосовые помощники, 2014
- neural style transfer, 2015
- better than human transcription, 2015
- Google DeepMind AlphaGo, 2015
Результат развития генеративных сетей, к примеру, технология Neural style transfer, которая позволяет ретушировать фотографии в стилистике любого художника. Серьёзным шагом в развитии ИИ было создание IBM Watson в 2008 году. Следствием научных исследований в этой области стали рекомендательные системы, такие как Netflix. Технологию компьютерного зрения изменил ImageNet, создав крупнейший набор данных для классификации изображений. Первоначально модель ImageNet считалась многие недели, а в настоящее время есть результат, когда она справляется за час. Дополненная реальность стала развиваться в середине 90-х, и сейчас она — на каждом мобильном телефоне. В 2015 году команда DeepMind, которую приобрела Google, выиграла у всех чемпионов в игре го. Это была технология AlphaGo, которая «подстегнула» развитие индустрии, особенно в части обучения с подкреплением.
Доступность для бизнеса
Если раньше для того, чтобы использовать алгоритмы ИИ, необходимы были суперкомпьютеры, то сейчас всё можно делать на смартфоне. Это открывает много новых возможностей для бизнеса.
фактор: развитие железа
- supercomputer
- CPU
- FPGA
- GPU
- TPU
- smartphone
Уже сегодня для решения бизнес-задач можно использовать давно известную технологию со множеством алгоритмов и фреймворков Supervised Learning (машинное обучение с учителем).
Ранее инновации в бизнесе были основаны на научных исследованиях или на «быстром» прототипировании. Первое — всегда требовало много времени и ресурсов, второе — могло позволить себе лишь малое количество организаций. Итого получалось дорого, долго, плохо. Что же происходит сейчас?
Благодаря использованию доступных технологий машинного обучения можно ускорить и автоматизировать процесс принятия решений в бизнесе. По сути, на каждой стадии бизнес-процесса вы можете использовать технологии, которые позволяют принимать решения и снижают влияние человеческого фактора.
Это означает, что у вас должны быть:
- данные, на которых можно обучать модели
- технологии, с помощью которых вы будете это делать
- и «железо»
При этом можно объединять данные, которые раньше не объединяли. Например, если мы говорим о страховании, то это не только данные о том, в какие аварии попадал водитель. Это ещё и метрики о том, как он водит машину, как паркуется, вплоть до того, кому он звонит и какая у него социальная сеть и как меняется структура этой сети. Благодаря совокупности данных можно предсказывать профиль риска значительно лучше и, соответственно, создавать новые продукты и инновации, предлагать более таргетированные решения.
В итоге вы получаете дешёвое и быстрое прототипирование без необходимости привлекать большое количество дорогих специалистов. Чтобы создать и обучить модель, не нужно знать С++ или алгоритмы на очень глубоком уровне. Достаточно понимать принцип, уметь работать с данными и писать скрипты. В принципе, этому сейчас может обучиться любой человек, который хорошо разбирается в своей предметной области, за 1-2 года.
Проблемы внедрения
Основная проблема, с которой мы сталкиваемся сегодня — это качество сбора данных. В большинстве организаций оно оставляет желать лучшего. В частности, много дублирований и потерь. Также есть вопросы с хранением информации.
основные проблемы
- качество сбора данных
- разметка датасетов
- вычислительная сожность
- постановка оптимизационных задач
- пробема чёрного ящика
Вторая проблема — необходимость осуществлять разметку набора данных для задач машинного обучения с учителем. Если вам нужно собрать десятки миллионов записей, это будет очень дорогостоящий процесс.
Третья — вычислительная сложность. Для того, чтобы решать задачи с данными, необходимы мощные вычислительные устройства, которые позволяют обучать модели быстро. Скорее всего не получится сразу обучить одну хорошую модель (это могут сделать только гении). Как правило, тестируется несколько гипотез: в среднем, в одном нашем проекте их около тысячи. Проблемы вычислительной мощности решаются облачными сервисами и увеличением мощности тех устройств, которые вам доступны.
Постановка оптимизационных задач связана с междисциплинарностью, и это достаточно сложно. Вы не можете нанять программиста, который решит вашу бизнес-задачу. Необходимо разговаривать на его языке, при этом разбираться как в возможностях технологий, так и в самой проблеме с точки зрения бизнеса. Чем эффективнее будет коммуникация, тем быстрее вы сможете внедрять подобные технологии в свой бизнес.
Проблема «чёрного ящика» заключается в том, что глубокое машинное обучение, которое сейчас популярно, мало где применимо, если вы хотите отслеживать критерии и порядок принятия решений. Эффективно Deep Learning в компьютерном зрении, машинном переводе, задачах поиска, но не в принятии решений. Поэтому я рекомендую использовать алгоритмы, которые можно аудировать. Это, например, древовидные алгоритмы, которые трансформируются в критерии «if» и «else». Например, Classification and Regression Tree (CART).
Актуальные темы и направления для инвестирования
Если вы хотите вкладывать деньги в подобные инновации, то я бы на вашем месте посмотрел на Deep Learning с точки зрения тех возможностей, которые глубинное обучения даёт для понимания предела. К примеру, что вы можете извлечь из данных и с какой точностью можете делать предсказания.
Ближайшие hot steps
- multi-layer networks
- GAN & LSTM
- исполнение на клиентских устройствах
- BI на GPU
- рынок ИТ-услуг трансформируется в рынок персональных данных
- проблемы этики AI и персональных данных
В бизнесе, как правило, выигрывает не тот, у кого на 2 процента точнее решение задач классификации, а тот, у кого лучше продукт, качественное обслуживание и сервис.
Второе интересное направление, на мой взгляд, это генеративно-состязательная сеть (GAN). Достаточно новая технология, которая позволяет соединить две нейросети, чтобы они конкурировали между собой. Сейчас внедряется в продуктах Google для решения задач перевода.
Ещё одно — исполнение машинного обучения на клиентских устройствах. Для большинства задач бизнеса в области классификации и регрессии достаточно мощностей смартфона, чтобы обслуживать одновременно тысячу клиентов. Уже доступно много фреймворков, статей, кода на GitHub — нужно пробовать.
Ещё одно направление — бизнес-интеллект (BI) на процессорах. В настоящее время эта тема не сильно развита, но она будет набирать обороты.
Алгоритмы ИИ, в частности машинного обучения, доступны уже много лет, и эта сфера хорошо развита, но хайп почему-то появился именно сейчас. В обозримом будущем всё это приведёт к изменению бизнес-моделей. Вопрос: как конкурировать в условиях этих изменений?
Google, например, собирает о нас много персональных данных. Она может предоставлять все свои услуги бесплатно и жить только за счёт продажи данных. В будущем модели бизнеса изменятся, однако данные о пользователях останутся основной ценностью, которая у вас есть.
В США очень жёсткое законодательство в области защиты данных, в Беларуси этого пока нет. Поэтому рекомендую в каждый договор вносить соответствующий пункт, который позволяет вам разумно, анонимизировано собирать, хранить и использовать данные, в том числе с третьими лицами.
Ещё один интересный кейс — этика ИИ и персональных данных. Классический случай: кого должен убивать самоуправляемый автомобиль, пешеходов или пассажиров, если невозможно избежать столкновения. Этот случай, кстати, до сих пор не разрешён ни законодательно, ни с точки зрения этики.
Как быть в аналогичных ситуациях бизнесу? Если вы знаете своего клиента так хорошо, что можете ему продать продукты, которые ему не нужны, выдать больше кредитов и ухудшить его финансовое состояние, то нужно ли это вам как бизнесу? В чём здесь ценность?
Каждый должен искать ответы на эти вопросы.
Примеры результатов Андрея и его коллег:

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.