Сооснователь Google DeepMind предложил, как сделать, чтобы ИИ точно не уничтожил человечество

Слишком быстрое развитие ИИ вызвало беспокойство, что однажды он станет сильнее людей, а его цели разойдутся с нашими — и тогда он будет угрожать существованию цивилизации. Сооснователь DeepMind, ИИ-подразделения Google, Мустафа Сулейман в недавнем интервью MIT Technology Review предложил способ избежать фатального развития событий.

2 комментария

По мнению предпринимателя, для этого разработчикам достаточно лишить ИИ некоторых базовых способностей. Например, к самосовершенствованию.

«Нельзя позволять искусственному интеллекту самостоятельно обновлять свой код без вашего контроля», — считает Сулейман. Он допустил, что эту деятельность можно даже лицензировать — как работу с возбудителями сибирской язвы или ядерными материалами.

Также исследователь считает, что в этом контексте важно обозначить допустимые границы использования персональных данных искусственным интеллектом.

Сооснователь DeepMind: генеративный ИИ — лишь этап. Будущее — интерактивный ИИ 
По теме
Сооснователь DeepMind: генеративный ИИ — лишь этап. Будущее — интерактивный ИИ

«Речь идёт об установлении границ, лимитов, которые ИИ не должен переходить», — говорит Сулейман. Также эти границы должны обеспечивать безопасность на всех этапах работы ИИ: от собственно программного кода до взаимодействия с другими ИИ-системами и людьми, а также мотивов и целей компаний-разработчиков.

В целом Сулейман считает, что ИИ-сферу можно эффективно регулировать, и не верит в сценарий с уничтожением людей. По его словам, перед нами сегодня стоит множество более практических вопросов в области искусственного интеллекта, включая приватность, предвзятости, распознавание лиц и модерацию ИИ-контента в сети.


Читать на dev.by