«Погибнут все»: главный критик ИИ требует прекратить разработки
Один из самых известных критиков искусственного интеллекта, основатель Machine Intelligence Research Institute Элиезер Юдковски, заявил, что современные методы разработки ИИ неизбежно приведут к катастрофе.
46-летний Юдковски более двух десятилетий выступает в роли «пророка конца света» для Кремниевой долины. «Есть 99,5 процента вероятность, что ИИ убьет меня, — сказал он в интервью. — И я не воспринимаю это лично. Он убьет всех».
Исследователь настаивает, что речь идет не о гипотетических рисках, а о реальной угрозе. «Если любая компания или группа где угодно на планете создаст искусственный суперразум с использованием хотя бы отдаленно похожих на нынешние технологии и знания, то все люди на Земле погибнут», — говорится в его книге If Anyone Builds It, Everyone Dies, написанной совместно с президентом MIRI Нейтом Суаресом.
По словам Юдковски, главная цель его и коллег — вовсе не регулирование и не замедление прогресса, а полная остановка работ по созданию сверхразумных систем. «Мы говорим не о том, как их использовать безопаснее, — подчеркивает он. — Мы говорим, что их не должно быть вообще».
В Кремниевой долине Юдковски известен уже много лет: он предупреждает руководителей компаний и инженеров, что гонка за созданием все более мощных моделей закончится трагедией. Теперь он обращается к широкой аудитории, надеясь, что общественное давление заставит индустрию пересмотреть курс. «Я понимаю, что это звучит как безумие, — признает он. — Но куда больше безумия в том, чтобы продолжать строить технологии, которые мы не понимаем и которые могут уничтожить нас».
Читать на dev.by