«Крёстному отцу» ИИ «очень грустно» из-за того, во что превратилась работа всей его жизни
Так описывает свои чувства учёный-компьютерщик Джеффри Хинтон. Он глубоко обеспокоен тем, во что превратились технологии, которые он помог создать, и тем, что мир не воспринимает растущие риски всерьёз.
Так описывает свои чувства учёный-компьютерщик Джеффри Хинтон. Он глубоко обеспокоен тем, во что превратились технологии, которые он помог создать, и тем, что мир не воспринимает растущие риски всерьёз.
«Мне очень грустно от того, что я посвятил жизнь развитию этих технологий, а теперь они стали крайне опасными, и люди не недооценивают эти опасности», — сказал Хинтон в свежем интервью BBC Newsnight.
Хинтон стоял у истоков нейросетей, но по мере того как ИИ-системы становятся всё мощнее и шире применяются, он превратился в одного из самых жёстких критиков технологии.
Ранее Хинтон предупреждал, что ИИ может привести к массовым потерям рабочих мест, усилить социальную нестабильность и превзойти человека по интеллекту. Он также подчёркивал, что исследователям стоит гораздо больше внимания уделять тому, как обучаются продвинутые системы, и добиваться того, чтобы они изначально создавались с учётом интересов людей.
В интервью BBC Newsnight Хинтон заявил, что человечество приближается к переломному моменту, когда учёные окажутся на пороге создания машин, превосходящих человека по уровню интеллекта.
«Мы никогда раньше не оказывались в ситуации, когда можем создавать нечто более умное, чем мы сами», — сказал он. И добавил, что, по мнению многих экспертов, ИИ превзойдёт человеческий интеллект в течение 20 лет, а в ряде областей уже сделал это. Контроль над такими системами может оказаться куда более сложной задачей, чем принято считать, полагает Хинтон.
«Идея о том, что их можно будет просто выключить, не сработает», — сказал Хинтон, пояснив, что достаточно развитый ИИ сможет убедить людей не отключать его.
По его словам, самой серьёзной ошибкой человечества сейчас стало бы не вкладываться в исследования того, как люди смогут сосуществовать с ИИ-системами. «Если мы создадим их так, что им будет на нас наплевать, они, скорее всего, нас уничтожат», — предупредил он
При этом Хинтон подчеркнул, что катастрофические сценарии можно избежать — всё зависит от того, как именно такие системы будут спроектированы и управляться. У людей по-прежнему есть «множество вариантов того, как их создавать», пока ИИ в стадии развития.
Регулировать ИИ становится всё сложнее
В то же время Хинтон встревожен тем, что ИИ выходит в мир в момент, когда глобальное сотрудничество ослабевает, а авторитарные тенденции усиливаются — это серьёзно осложняет возможность эффективного регулирования. Он сравнил необходимость управления ИИ с международными соглашениями о контроле над химическим и ядерным оружием.
Несмотря на все опасения, Хинтон не стал бы отказываться от своей работы в области ИИ: «Его всё равно разработали бы и без меня. Я не думаю, что принимал какие-то решения, которые не принял бы снова, обладая теми же знаниями».
Он по-прежнему видит в ИИ большой потенциал — в частности, в образовании и медицине, приводя в пример ИИ-репетиторов и прогресс в медицинской визуализации. Но сейчас, по его словам, ключевым фактором становится срочность.
«Мы находимся в чрезвычайно важной точке истории — очень скоро мы создадим системы, более умные, чем мы сами. А исследований о том, можем ли мы мирно сосуществовать с ними, мы ещё не провели. Нам крайне важно заняться этим прямо сейчас», — сказал Хинтон.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.