Реклама в Telegram-каналах DzikPic и dev.by теперь дешевле. Узнать подробности 👨🏻‍💻
Support us

Стивен Хокинг: «Компьютеры обгонят человечество по интеллекту в течение 100 лет»

Оставить комментарий
Стивен Хокинг: «Компьютеры обгонят человечество по интеллекту в течение 100 лет»

Известный физик-теоретик Стивен Хокинг предсказал приблизительные сроки, когда искусственный интеллект достигнет такого совершенства, что станет представлять опасность для человечества. Об этом сообщает издание TechWorld.

Читать далее...

Стивен Хокинг на конференции Zeitgeist в Лондоне

По мнению Хокинга, в масштабах эволюции нет никакой разницы между мозгом человека, компьютера или дождевого червя. Это позволяет компьютерам эмулировать человеческий разум или даже работать лучше.

В своих рассуждениях Хокинг оперирует в том числе «законом Мура», по которому мощность вычислительных механизмов удваивается примерно каждые два года. Человеческий разум тоже постепенно улучшается и может даже ускориться в своём развитии благодаря генной инженерии, считает Хокинг, однако всё-таки не так быстро, как это происходит со способностями компьютеров.

В результате компьютеры в какой-то момент обгонят человека в интеллектуальных способностях в течение следующих 100 лет. Когда это случится, нужно быть уверенными, что цели компьютеров совпадают с нашими. Очень заманчиво отмести мысли о высокоинтеллектуальных машинах как о простой научной фантастике. Но это было бы нашей ошибкой — потенциально худшей ошибкой за всю историю, — полагает Стивен Хокинг.

Хокинг также отозвался об уже существующих интеллектуальных помощниках — Siri, Google Now и Cortana — назвав их симптомами «гонки ИT-вооружений». Хотя сейчас эти технологии воспринимаются как перспективные, они померкнут перед тем, что несут грядущие десятилетия.

«Успешное создание искусственного разума будет величайшим открытием в истории человечества, — уверен учёный. — К сожалению, оно может стать и последним, если мы не узнаем, как избежать рисков». Так, в скором времени военные всего мира могут начать гонку автономных вооружений, которые способны самостоятельно выбирать свои цели. ООН выступает за запрет такого рода вооружений, потому что впоследствии они станут «Калашниковыми будущего»: их будут продавать на чёрном рынке, и неизвестно, в чьих руках они окажутся.

В краткосрочном периоде важно, кто будет контролировать искусственный интеллект, однако в долгосрочной перспективе вопрос стоит иначе: сможет ли человечество контролировать его в принципе? По мнению Хокинга, планировать свои действия надо начинать уже сейчас. «Если превосходящая нас в развитии инопланетная цивилизация пришлёт нам SMS: «Будем у вас через пару десятилетий», мы что, просто ответим: «ОК, позвоните, как доедете. Мы не будем выключать свет»?» — сострил всемирно известный физик-теоретик, завершая своё выступление.

Хокинг также подчеркнул, что другие известные в мире технологий персоны разделяют его опасения — например, Стив Возняк, Билл Гейтс и Элон Маск.

Новый рекламный формат в наших телеграм-каналах.

Купить 500 символов за $150

Читайте также
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
3 комментария
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.