🇵🇱 Дедлайн по e-PIT всё ближе ⏳ Поддержите devby из уже уплаченных налогов 💙
Support us

Стивен Хокинг: «Компьютеры обгонят человечество по интеллекту в течение 100 лет»

Оставить комментарий
Стивен Хокинг: «Компьютеры обгонят человечество по интеллекту в течение 100 лет»

Известный физик-теоретик Стивен Хокинг предсказал приблизительные сроки, когда искусственный интеллект достигнет такого совершенства, что станет представлять опасность для человечества. Об этом сообщает издание TechWorld.

Читать далее...

Стивен Хокинг на конференции Zeitgeist в Лондоне

По мнению Хокинга, в масштабах эволюции нет никакой разницы между мозгом человека, компьютера или дождевого червя. Это позволяет компьютерам эмулировать человеческий разум или даже работать лучше.

В своих рассуждениях Хокинг оперирует в том числе «законом Мура», по которому мощность вычислительных механизмов удваивается примерно каждые два года. Человеческий разум тоже постепенно улучшается и может даже ускориться в своём развитии благодаря генной инженерии, считает Хокинг, однако всё-таки не так быстро, как это происходит со способностями компьютеров.

В результате компьютеры в какой-то момент обгонят человека в интеллектуальных способностях в течение следующих 100 лет. Когда это случится, нужно быть уверенными, что цели компьютеров совпадают с нашими. Очень заманчиво отмести мысли о высокоинтеллектуальных машинах как о простой научной фантастике. Но это было бы нашей ошибкой — потенциально худшей ошибкой за всю историю, — полагает Стивен Хокинг.

Хокинг также отозвался об уже существующих интеллектуальных помощниках — Siri, Google Now и Cortana — назвав их симптомами «гонки ИT-вооружений». Хотя сейчас эти технологии воспринимаются как перспективные, они померкнут перед тем, что несут грядущие десятилетия.

«Успешное создание искусственного разума будет величайшим открытием в истории человечества, — уверен учёный. — К сожалению, оно может стать и последним, если мы не узнаем, как избежать рисков». Так, в скором времени военные всего мира могут начать гонку автономных вооружений, которые способны самостоятельно выбирать свои цели. ООН выступает за запрет такого рода вооружений, потому что впоследствии они станут «Калашниковыми будущего»: их будут продавать на чёрном рынке, и неизвестно, в чьих руках они окажутся.

В краткосрочном периоде важно, кто будет контролировать искусственный интеллект, однако в долгосрочной перспективе вопрос стоит иначе: сможет ли человечество контролировать его в принципе? По мнению Хокинга, планировать свои действия надо начинать уже сейчас. «Если превосходящая нас в развитии инопланетная цивилизация пришлёт нам SMS: «Будем у вас через пару десятилетий», мы что, просто ответим: «ОК, позвоните, как доедете. Мы не будем выключать свет»?» — сострил всемирно известный физик-теоретик, завершая своё выступление.

Хокинг также подчеркнул, что другие известные в мире технологий персоны разделяют его опасения — например, Стив Возняк, Билл Гейтс и Элон Маск.

Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
Китайская компания ищет ИИ-инженера на $1,5 млн в месяц. Вот что нужно делать
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
ИИ-агенты всё чаще выходят из-под контроля: число сбоев выросло в разы
Почти половину дата-центров в США не могут достроить в срок
Почти половину дата-центров в США не могут достроить в срок
Почти половину дата-центров в США не могут достроить в срок
«Это безумие»: ИИ помог построить бизнес на $1,8 млрд с двумя сотрудниками
«Это безумие»: ИИ помог построить бизнес на $1,8 млрд с двумя сотрудниками
«Это безумие»: ИИ помог построить бизнес на $1,8 млрд с двумя сотрудниками

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.