Сооснователь Google DeepMind предложил, как сделать, чтобы ИИ точно не уничтожил человечество
Слишком быстрое развитие ИИ вызвало беспокойство, что однажды он станет сильнее людей, а его цели разойдутся с нашими — и тогда он будет угрожать существованию цивилизации. Сооснователь DeepMind, ИИ-подразделения Google, Мустафа Сулейман в недавнем интервью MIT Technology Review предложил способ избежать фатального развития событий.
По мнению предпринимателя, для этого разработчикам достаточно лишить ИИ некоторых базовых способностей. Например, к самосовершенствованию.
«Нельзя позволять искусственному интеллекту самостоятельно обновлять свой код без вашего контроля», — считает Сулейман. Он допустил, что эту деятельность можно даже лицензировать — как работу с возбудителями сибирской язвы или ядерными материалами.
Также исследователь считает, что в этом контексте важно обозначить допустимые границы использования персональных данных искусственным интеллектом.
«Речь идёт об установлении границ, лимитов, которые ИИ не должен переходить», — говорит Сулейман. Также эти границы должны обеспечивать безопасность на всех этапах работы ИИ: от собственно программного кода до взаимодействия с другими ИИ-системами и людьми, а также мотивов и целей компаний-разработчиков.
В целом Сулейман считает, что ИИ-сферу можно эффективно регулировать, и не верит в сценарий с уничтожением людей. По его словам, перед нами сегодня стоит множество более практических вопросов в области искусственного интеллекта, включая приватность, предвзятости, распознавание лиц и модерацию ИИ-контента в сети.
Читать на dev.by