Основным спикером EPAM SEC в этом году была Кэсси Козырьков — Chief Decision Scientist в Google. Она выступила с докладом о машинном обучении. Своей миссией Кэсси называет популяризацию Decision Intelligence Engineering и безопасного AI. Специально для dev.by интервью у эксперта Google взял представитель сообщества Open Data Science Арсений Кравченко.
«Если вы можете обойтись без анализа данных и машинного обучения, то обойдитесь»
Кэсси, для начала расскажите, пожалуйста, откуда вы родом. Почему у вас славянская фамилия и вы говорите по-русски?
Точнее это мужской вариант славянской фамилии. Когда мне было три года, мои родители переехали из Санкт-Петербурга в ЮАР: я выросла в этой стране, у меня южноафриканский акцент. Сначала я была Козырькова. Но в ЮАР моему отцу заявили: «Что это такое? У членов семьи не могут быть разные фамилии!» Так я стала Козырьков.
Ваша позиция в Google — Chief Decision Scientist — звучит несколько необычно. Объясните, чем вы занимаетесь и что такое Decision Intelligence.
Начнём с того, что в науке о данных есть два аспекта: исследовательский и прикладной. В прошлом, чтобы воспользоваться каким-либо алгоритмом, вам пришлось бы сначала самостоятельно его создать. Для этого нужно было пройти специальное обучение, потом внести необходимые улучшения, кастомизировать под свою задачу, и только после этого пользоваться. Это было всё равно что заново изобретать велосипед.
Сегодня, когда у нас большое количество готовых алгоритмов и море данных, а также есть вычислительные мощности для работы с ними, мы можем просто взять данные и разделить их. Да, вам по-прежнему придётся проверять статистические выводы: эти умения требуются как в исследованиях, так и в прикладной части. Зато остальную часть процесса можно переложить на алгоритмы: вместо того, чтобы тщательно обдумывать гипотезы и заниматься моделированием вручную, вы просто пропускаете ваши данные через алгоритмы и смотрите, какой из них сработает. Причём можно больше не строить алгоритмы самим, а просто воспользоваться теми, что уже существуют. Вы же можете сосредоточиться на применении и масштабировании.
Таким образом, увеличивается расстояние между исследовательским и прикладным аспектами Data Science. Когда люди говорят об искусственном интеллекте или машинном обучении, они в первую очередь представляют себе теоретические исследования, так как это базовый подход. А прикладную науку о данных и прикладное машинное обучение считают чем-то вроде дополнения — им тяжело отделить одно от другого. Но сегодня очень важно осознавать эту разницу, потому что люди должны целенаправленно обучаться прикладным навыкам, если их цель — не исследование, а масштабирование.
Давая название прикладному направлению — Decision Intelligence — мы хотели подчеркнуть, что это — самостоятельная дисциплина.
Но Decision Intelligence — это не просто прикладное направление Data Science. Нельзя просто строить алгоритмы, не имея представления о социальных науках и бизнес-навыках. Мы берём прикладное направление Data Science и дополняем его социальными науками и наукой управления, задача которых, как и теории принятия решений, превратить информацию в практическое действие. Вот эту область с фокусом на практическом аспекте мы и называем Decision Intelligence.
Такую терминологию ввели, чтобы не было путаницы: если я получаю навыки в Decision Intelligence, я не смогу их использовать в исследованиях по машинному обучению. И наоборот: если вы занимаетесь исследованиями, это не значит, что вы справитесь с Decision Intelligence — для этого вам понадобится много чего ещё.
В Google я веду программу Decision Intelligence, и отсюда название моей должности — Chief Decision Scientist.
Получается, вы занимаетесь решениями, основанными на данных. Не могли бы вы…
Прежде всего, нужно понимать, что не каждое решение обязательно основано на данных. Далеко не всегда следует использовать анализ данных: некоторые решения просто несовместимы с этим подходом, и такие ситуации нужно распознавать заранее. Если можно обойтись без статистического анализа или машинного обучения, то обойдитесь. Не стоит применять машинное обучение просто потому, что вам так захотелось, хотя эту ошибку делают многие люди. Но что вы хотели спросить?
«Рейтинг отеля не обязательно влияет на ваш выбор»
Мой вопрос — как отличить правильный data-ориентированный подход от того, что называется карго-культом?
Самое главное здесь — понять, что в действительности значит «решение, управляемое данными». Допустим, я спрошу, хотите ли вы остановиться в этом отеле, и скажу, что его рейтинг — 4,2 из 5. Это число само по себе не сможет повлиять на ваше решение. Но если вы действительно хотите остановиться в этом отеле, то число приобретёт вес в ваших глазах. Вы подумаете: что ж, 4,2 больше, чем 4, поэтому я поселюсь в этом отеле. И наоборот, если вам не нравится отель, вы скажете: 4,2 меньше, чем 4,5, я не собираюсь здесь останавливаться.
Получается, вы подстраиваете вопрос под уже готовый ответ. Вашим решением управляли не данные, а что-то совершенно постороннее. Оно в лучшем случае «вдохновлено» данными: вы просто приняли их к сведению, но на решение они никак не повлияли. К сожалению, люди, принимающие решения, далеко не всегда это понимают. Они мучают команду аналитиков и статистиков, требуют от них этот коэффициент и в конце концов получают эти 4,2. Но оказывается, что они и без того собирались запустить свой проект. Такой подход не имеет ничего общего с data driven decisions. И ваша первостепенная задача — присмотреться к десижн мейкеру, разобраться, что было сначала — решения или данные.
Если бы решением из примера с отелем управляли данные, ситуация выглядела бы так. Сначала вы мне говорите, какой минимальный рейтинг отеля вас устроит, допустим, ваш ответ 3,8. Только после этого я сообщаю вам, что рейтинг отеля — 4,2, и вы соглашаетесь на этот вариант. В этом случае вашим решением действительно управляют данные. Решение, при принятии которого вы оперируете данными, как вам вздумается, максимум — вдохновлено ими.
В компаниях, где процесс принятия решений основан на данных, заведён чёткий порядок: сначала десижн мейкер определяет условия выбора, и только после этого требует кропотливого анализа от остальной команды.
В большинстве организаций подобных документов не существует, и их решения не основаны на данных.
Что касается машинного обучения, то оно всегда управляется данными. Машина получает входные данные и выдаёт результат, так что процесс принятия решений в ней зависит от данных. Вопрос лишь в том, было ли основано на данных само решение запустить эту систему. От этого зависит, будет ли машина делать свою работу хорошо или плохо.
«В научно-фантастических книгах не описано ничего такого, что могло бы застать нас врасплох»
По-вашему, машинное обучение — это что-то вроде «нового электричества» или хайп?
Можно, я приму оба варианта? Машинное обучение — это потрясающая технология, это новый способ общения с машинами, который даёт нам выбор, как донести свои желания до машины.
Например, я хочу, чтобы вы помыли посуду. Я могу показать тарелку и объяснить словами, какие именно движения вы должны совершить. Или же я могу просто показать вам, как это делается, и предоставить разобраться самому. Благодаря машинному обучению мне доступны оба способа общения с машиной: и вербальный, и с помощью примеров. Это поистине прорыв, потому что прежде, в классическом программировании, использовались только команды.
Ещё пример: я хочу, чтобы вы забрали моего друга из аэропорта. Как вы его узнаете? Я ведь не скажу: «Ощупайте лицо каждого человека, вот так, потом возьмите рулетку и измерьте». Вместо этого я просто покажу вам фотографию своего друга. Такая же возможность при общении с машиной открывает нам колоссальные возможности.
Хайп начался из-за научной фантастики, связавшей машинное обучение с интеллектом, подобным человеческому. Не стоит слепо верить тому, что придумывают писатели-фантасты. Если речь идёт о реальных угрозах, то исследовательское сообщество очень быстро предугадывает их и предотвращает. Если же это полный абсурд, его игнорируют. В научно-фантастических книгах не описано ничего такого, что могло бы застать нас врасплох.
Это первая причина, почему научная фантастика — не самый лучший источник. Вторая состоит в том, что мы склонны всё наделять человеческими качествами. Мой профессор по психологии проводил любопытный эксперимент. Участникам показывали три геометрические фигуры: круг, треугольник и прямоугольник. Эти фигуры хаотично перемещались на экране, а участники должны были рассказать в свободной форме, что они увидели. И они отвечали что-то вроде: «Эта фигура нападала на вот эту». Послушайте, это всего лишь круг или треугольник, они не люди, у них нет эмоций и они ни на кого не собирались нападать.
Мы склонны всё очеловечивать, в том числе машинное обучение. Но человеческим свойствам в машине просто неоткуда взяться. Нет такого места в коде, где искусственный интеллект начал бы думать о чём-то или обучаться чему-то, что вы ему не показывали. Как он сможет развить способности, которых вы ему не продемонстрировали? Система так не работает. Так что все эти истории, в который искусственный интеллект вдруг находит какие-то альтернативные сенсорные данные и превращается в богоподобное существо — просто сказки.
Но даже если бы вам понадобилось создать такую систему, в неё было бы очень легко встроить предохранители против тех опасностей, что выдумывают фантасты.
Машина — не человек, она не будет желать ничего сверх того, что вы ей приказали, а вы ей приказали научиться хорошо распознавать котов, рассчитывать метрику энергоэффективности для дата-центра и т. д. Это единственное, что она будет хотеть и что она будет делать. Вот видите, словом «хотеть» я сейчас сама одушевила систему.
«Думаете, врач может объяснить, почему он поставил такой диагноз?»
Что должно измениться в нашем обществе, чтобы люди ушли от антропоморфного подхода и пришли к более эффективному взаимодействию с машинными обучением? Сегодня, когда вы приходите к доктору за диагнозом, то рассчитываете получить также объяснение того, как он поставил этот диагноз. От машины вы не можете получить объяснение, но ждёте от неё того же, что и от доктора.
Начнём с того, что ваш пример не совсем корректен.
Если я спрошу вас, почему вы решили сесть на этот стул, а не на другой, вы можете рассказать мне целую историю. Но ваша история будет сильно отличаться от тех процессов, что реально происходили в вашем мозгу. На самом деле, это ваши нейроны активизировались в определённом порядке через специальное химическое вещество. У вас нет доступа к этому процессу, и вы понятия не имеете, как приняли это решение. Вы просто смотрите на входные данные, потом на выходные, после чего придумываете незамысловатый сюжет, который их свяжет.
Поведенческие экономисты постоянно проворачивают этот трюк в своих лабораториях: они внедряют решение в головы людей и просят тех объяснить, почему они его приняли. Люди красочно расписывают причины. Хотя на самом деле это решение они приняли потому, что исследователь их заставил.
Люди вообще не имеют доступа к тому истоку, где зародилось решение. Точно так же и врач может объяснить пациенту, как пришёл к своему диагнозу, но как в действительности это произошло, от него сокрыто.
В машинном обучении внешние обстоятельства — такие же, как в случае с человеком, а внутренние процессы могут быть открыты либо скрыты, но знание о процессах внутри машины нам и не нужно.
В мире существует столько лекарств, и мы их принимаем, не понимая механизма их действия. Почему мы не боимся их пить? Потому что мы их проверили, и знаем, что они выполняют свою задачу. Безопасность лекарств обеспечена тем, что сначала человек продумал все условия, в которых лекарства должны работать, определился, что означает это «работать», а потом тщательно их протестировал.
Получается, это исторический процесс. Я знаю, что люди до меня принимали эти таблетки и им стало легче, значит, я тоже могу ими пользоваться.
С точки зрения потребителя лучше полагаться на кого-то, кто достаточно хорошо разбирается в этой сфере и провёл строгие тесты.
Скажем, я пользуюсь лифтом, который поднимает меня на 60-й этаж небоскрёба, хотя я не смогу оценить его соответствие стандартам безопасности — у меня нет таких знаний. Было бы неразумно доверять лифту только потому, что я на нём уже ездила. Но я могу рассчитывать на то, что правительство позаботилось о стандартах для лифтов, что есть эксперты, которые знают, как испытывать лифты, и что они добросовестно провели эти испытания. Я доверяю лифту, потому что кто-то другой, имеющий правильные полномочия и навыки, выполнил эту оценку. Это применимо как к лифтам или лекарствам, так и к машинному обучению.
Теперь давайте рассмотрим, на чём основано доверие к эксперту. Эксперт должен подготовить условия для испытаний, которые обеспечат по-настоящему хорошую проверку всех важных параметров. В этом смысл его работы, и если эксперт не создал достаточно жёсткие условия тестирования, это чревато проблемами. Если такой тест создан и лекарство его прошло, значит, оно действительно работает.
Это же справедливо и для машинного обучения. Главное — отнестись к тестированию со всей серьёзностью и подготовить стандарт качества для тестирования систем машинного обучения.
«Опасен не джинн внутри лампы, а тот, что загадывает желания»
Мне кажется, в промышленности недостаточно внимания уделяется статистическим навыкам, которые необходимы для проведения качественного тестирования этих систем. А кроме того, недорабатывают люди, ответственные за решения. Десижн мейкер должен тщательно продумать условия, при которых предмет должен работать. Должно ли здание выстоять при землетрясении? Как узнать, что оно уцелеет в землетрясении? Продумать всё это — работа лица, принимающего решения, а не статистика. Статистик просто проверяет соответствие заданным условиям.
Больше, чем пренебрежение статистическими навыками, вызывать беспокойство должно отсутствие навыков и знаний для принятия решений. Люди, чья обязанность определять критерии качества, не умеют делать этого, и как раз это я пытаюсь изменить. Я стараюсь донести до всего мира: люди, ответственные за принятие решений, должны быть осторожны в своих желаниях. Технологии основанных на данных — очень мощный рычаг, и чем больше у вас данных, тем больше возможностей для масштабирования продукта (или решения) на другом конце рычага. Если десижн мейкер умён, вы масштабируете разумность, и от этого выиграют все. Если же он недостаточно хорошо продумал, о чём просит, вы будете масштабировать глупость. Как на тех плакатах в кафе: «Пей кофе! Делай глупости быстрее и энергичнее!»
С данными нужно обращаться очень ответственно: чем длиннее рычаг, тем лучше подготовка должна быть у людей, в чьих руках он находится. Можно провести аналогию с джинном в волшебной лампе: ведь опасен не джинн, а тот, кто загадывает желания. Человек без правильных навыков может пожелать что-то очень глупое, и если джинн эту глупость осуществит, последствия могут быть опасны. Поэтому необходимо учить десижн мейкеров формулировать свои желания ответственно, этично и разумно.
Мне кажется, самая большая опасность для нашего высокоавтоматизированного общества — наша уверенность в том, что, пока у нас благие намерения, всё будет хорошо. Это не так. Даже самое искреннее и доброе желание может запросто повлечь совсем нежелательные последствия. Важно тщательно продумать самый плохой вариант развития событий, который может повлечь не дух, а буква вашего желания, и убедиться, что этот самый плохой вариант не принесёт вреда.
«Если задание плохо проработано, откажитесь его выполнять»
В мире достаточно специалистов по Data Science. Посоветуйте, что им делать, чтобы мир стал лучше.
Работа специалиста по обработке данных — центральная часть гораздо более длительного процесса. Под «специалистом по обработке данных» я понимаю человека, который сочетает в себе три профессии: аналитика, статистика и инженера машинного обучения. Вы, конечно, можете создать команду дата-сайентистов из трёх разных людей, но в любом случае её частью непременно будет статистика.
Когда прототип готов и ждёт запуска в производство, нужно выстроить системы безопасности и мониторинга, гарантирующие безопасность продукта: у вас должен быть план действий на случай, если мир вокруг изменится.
Очередь этой работы наступает лишь после того, как лицо, принимающее решение, с командой социологов аккуратно сформулировали своё послание «джинну». К этому нужно подходить со знанием дела, в противном случае дата-сайентисты будет скрупулёзно решать не ту задачу.
Я не говорю, что специалисты по обработке данных должны научиться делать всё и сразу. Это очень сложный и долгий процесс: я, например, изучаю эту область уже 15 лет, и мне ещё много чего предстоит узнать. Нельзя приказать человеку потратить 15 лет на то, чтобы стать специалистом во всём. Нужно построить междисциплинарную команду во главе с десижн мейкером. Сначала он должен работать с социологами, а уже потом подключать дата-сайентистов.
В чём состоит ваша роль как специалиста по обработке данных? Если вы хотите сделать мир лучше, ваш долг — отклонить запрос, недостаточно хорошо проработанный десижн мейкером.
Если то, что вам передают, не удовлетворяет вашим требованиям, откажитесь от задания. Беритесь только за те запросы, которые были тщательно продуманы. Побуждайте или даже заставляйте десижн мейкера профессионально расти. Если у десижн мейкера нет энтузиазма постигать искусство и науку принятия решений, найдите эксперта по социальным наукам, который поможет вам перевести голос интуиции на язык аргументов.
Помните, что команда всегда вправе отказать в выполнении работы, если десижн мейкер не выполнил свою.
Считаю, это очень важная часть работы дата-сайентиста. Ведь сегодня часто бывает так, что десижн мейкер приходит, даёт нелепейшее задание и уходит, бедный специалист по обработке данных трудится все выходные, не покладая рук, а в понедельник десижн мейкер даже не помнит, о чём просил.
Ладно, это всего лишь потраченные зря силы. Но что, если просьба опрометчива, не продумана и вообще вредит компании? В таком случае кто-то должен остановиться и задуматься: «А достаточно ли компетентен этот человек, чтобы принимать решения? Мы не будем делать свою работу, если он не умеет делать свою». Разрыв, отсутствие сотрудничества между специалистами по обработке данных и десижн мейкерами, низкий уровень компетентности последних — вот что действительно опасно. Поэтому, если хотите, чтобы мир стал лучше, выполняйте только качественные запросы. Тогда вы будете нести добро.
Посоветуйте напоследок, какие книги прочитать, чтобы продвинуться в принятии решений.
Есть очень много продвинутых книг на эту тему, но начать я бы посоветовала с чего-нибудь простого. Мне нравится одна книга о самоконтроле и беспристрастности — How we know what isn’t so Томаса Гиловича. Я читала её, когда была подростком, и она очень вдохновила меня. В книге говорится об искажённом восприятии информации. Хороший десижн мейкер, умеющий как никто другой обращаться с информацией, превращая её в действие, должен противостоять психологическим явлениям, описанным в книге. Люди, как правило, излишне самоуверенны и считают, что у них это хорошо получается, но они ошибаются. Книга раскрывает глаза на многие вещи. А после неё можно браться за что-то более серьёзное.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.