Support us

10 принципов развития искусственного интеллекта от главы Microsoft

Оставить комментарий
10 принципов развития искусственного интеллекта от главы Microsoft

Наследуя традицию «Трёх законов робототехники» Айзека Азимова, гендиректор Microsoft Сатья Наделла сформулировал десять принципов грядущей революции в области искусственного интеллекта, пишет GeekWire со ссылкой на статью Наделлы в издании Slate.

Читать далее

Сатья Наделла. Фото: CNET

Обращение Наделлы к сути философских основ исследований в области искусственного интеллекта (ИИ) — ещё один аргумент, свидетельствующий о небывалом интересе корпорации к этой теме. СМИ сравнивают его с поворотом Microsoft во главе со своим основателем Биллом Гейтсом к интернету в середине 1990-х годов.

В опубликованном вчера эссе нынешний CEO Microsoft упоминает не только манифест Азимова, но и меморандум Гейтса 1995 года «Приливная волна интернета».

Выступление Наделлы также подливает огонь в дискуссию о том, будет ли ИИ представлять опасность для человечества в долгосрочной перспективе. Только на этой неделе, к примеру, британский физик Стивен Хокинг предупредил о росте роли ИИ в гонке вооружений. Белый дом проводит ряд общенациональных семинаров в США, посвященных потенциальной опасности интеллектуальных машин.

По мнению Наделлы, люди и машины могут работать вместе и сообща решать самые серьёзные проблемы общества, включая болезни, необразованность и бедность.

«Это, однако, требует смелого и амбициозного подхода, который выходит за рамки всего того, чего можно достигнуть исключительно за счёт усовершенствования существующей технологии, — пишет он. — Настало время для более тесной координации усилий и сотрудничества в области искусственного интеллекта».

Вот 10 принципов развития искусственного интеллекта, предложенных Сатьей Наделлой.

  1. Разработка ИИ должна осуществляться ради помощи человечеству.
  2. ИИ должен быть прозрачным.
  3. ИИ должен максимально увеличить эффективность, не посягая на достоинство людей.
  4. ИИ должен быть рассчитан на неприкосновенность частной жизни.
  5. ИИ нуждается в алгоритмической подотчётности, чтобы люди могли предотвратить нанесение непреднамеренного вреда.
  6. ИИ должен защищать от предвзятости.
  7. Критически важно, чтобы у людей было сопереживание.
  8. Критически важно, чтобы люди были образованными.
  9. Потребность в человеческом творчестве не пропадёт.
  10. В конечном счёте именно человек должен нести ответственность за диагноз или решение, сгенерированное компьютером.

По мнению Сатьи Наделлы, эксперты должны отслеживать воздействие искусственного интеллекта на общество, как это происходит, например, в рамках исследования Стенфордского университета и Microsoft Research One Hundred Year Study.

Гендиректор Microsoft признаёт, что систему взглядов относительно исследований в области ИИ необходимо сформировать «с прицелом на десятилетия вперед», но «правильный фундамент важно заложить прямо сейчас»:

«Самый важный следующий шаг — договориться об этической и эмпатической основах для разработки искусственного интеллекта».

 

Также читайте: «Не навреди»: топ-менеджер Slack составил кодекс поведения ботов

16 лет dev.by — «дефолтный» источник информации о беларусском ИТ

Вы можете...

Читайте также
Sony не может договориться с Microsoft о продлении выпуска Call of Duty на PlayStation
Sony не может договориться с Microsoft о продлении выпуска Call of Duty на PlayStation
Sony не может договориться с Microsoft о продлении выпуска Call of Duty на PlayStation
1 комментарий
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Microsoft запустила обучающий сайт по Java
Microsoft запустила обучающий сайт по Java
Microsoft запустила обучающий сайт по Java
1 комментарий
Google, Apple, Microsoft постепенно выносят производство из Китая
Google, Apple, Microsoft постепенно выносят производство из Китая
Google, Apple, Microsoft постепенно выносят производство из Китая
4 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.