Support us

Профессор БГУИР: «Бунт интеллектуальных систем — выдумки дилетантов»

Оставить комментарий
Профессор БГУИР: «Бунт интеллектуальных систем — выдумки дилетантов»

В последнее время участились разговоры о потенциальной опасности искусственного интеллекта (ИИ). Стивен Хокинг, Элон Маск и ещё десятки учёных, предпринимателей и инвесторов подписали открытое письмо, в котором на основании доклада Института будущего жизни призывают к осмотрительности при разработке систем ИИ. В Беларуси время подобных инициатив настанет не скоро, но страна ведёт разработки в этой области.

О том, стоит ли опасаться искусственного разума, dev.by поговорил с доктором технических наук, профессором Владимиром Голенковым — заведующим кафедрой интеллектуальных информационных технологий БГУИР, отметившей на днях 20-летние.

Читать далее

«Самая большая опасность исходит от людей»

— Владимир Васильевич, в произведениях массовой культуры довольно популярна тема «бунта» интеллектуальных систем. Это вообще возможно?

— К сожалению, в быту довольно часто сталкиваюсь с подобного рода вопросами. Страхи перед техническим прогрессом — это, конечно, рупор бездельников. Подавляющее большинство именно так оправдывает нежелание жить в более просвещённом, технологичном мире.

Дело в том, что все проблемы, связанные с техникой, в конечном счёте отражают человеческую халатность или безграмотность. В любой аварии — не важно, автомобильная, железнодорожная, авиационная — чаще всего виноват человеческий фактор. Роковой технический сбой происходит достаточно редко, это из разряда «шёл по улице и кирпич на голову упал». Я, например, люблю горы. Вероятность, что там на тебя что-то свалится или что сам куда-то провалишься, весьма высока. Так что, из-за этого не ходить в горы? Я готов заплатить этим риском, чтобы получить удовольствие от общения с природой.

Что касается компьютерных систем, всё ведь связано с человеком. Если он захочет что-то плохое сотворить, используя интеллектуальный или другой метод, он это сделает. Можно создать ядерный реактор, который будет работать в атомной электростанции на благо людей, а можно его превратить в оружие массового поражения. Насколько велика угроза того, что искусственным интеллектом воспользуются люди со злым умыслом? Не более, чем угроза использования «не по назначению» любых других технических решений. Самая большая опасность исходит не от природы и не от техники, а от людей.

Что до бунта интеллектуальных систем — во многом это выдумки дилетантов. Нам ещё предстоит пройти долгий путь, чтобы почувствовать осознанную угрозу или агрессию по отношению к человеку со стороны компьютерной системы. Не говоря уже о перспективе нанести вред людям.

Разговоры об угрозе ИИ — просто беседы для людей, которые хотят поговорить, из серии «Может ли метеорит упасть на землю, вызвав новый Ледниковый период?». А что, такая вероятность есть.

— То есть нам ничего не угрожает?

— Как сказать. Уже существуют системы, которые могут навредить в определённой сфере, те же вирусы. Но их создал человек, он же отдаёт команду атаковать.

«Нет общей теории интеллектуальных систем»

— Искусственный интеллект пока не умеет развиваться самостоятельно. Что необходимо для того, чтобы он сам обучался, и как в таком случае можно будет ограничить его совершенствование?

— Меня всегда восхищает пропасть между знаниями, которые люди получают из фантастических произведений, скажем, Айзека Азимова, и реальным положением дел. Человечество сейчас мучительно переходит на технологии, в основе которых лежат знания и их обработка. Да, это шаг в сторону массового использования интеллектуальных компьютерных систем, которые построены по новой архитектуре. Но они окажутся более гибкими, их будет проще совершенствовать. К тому же, они смогут самосовершенствоваться. Для этого как раз необходимо сделать шаг вперёд, перейти на новый этап развития информационных технологий.

Можно ли говорить о механизмах самоорганизации, самообучения компьютерных систем, основанных на знаниях? Они не так заоблачны, как могут показаться. Если система накопленного опыта каких-то знаний хорошо структурирована и целостна, то механизмы самоорганизации и самообучения становятся довольно прозрачными и реальными. Главное — понять, как должна быть устроена структуризация знания, хранимого в памяти компьютерной системы.

В теоретическом изучении искусственного интеллекта есть значительные успехи. К сожалению, пока нет общей теории интеллектуальных систем, которая бы объединяла эти результаты в единую картину — мир поразился бы, сколько всего уже сделано. Ум учёного проник далеко в этих вопросах. Но, кроме научного понимания того, как устроена интеллектуальная система, необходима технология, которая предоставит инструмент для разработчиков этой системы.

До появления массово используемых интеллектуальных систем необходимо создать условия для массовой разработки и использования семантически совместимых систем, основанных на знаниях, и не обязательно обладающих способностью решать интеллектуальные задачи. Лишь после этого можно будет полноценно говорить об искусственном интеллекте.

«Тест Тьюринга — своего рода шутка гения»

— В 2014 году системе впервые удалось выполнить тест Тьюринга, разработанный ещё в 1950 году для определения, насколько интеллект машины может имитировать человеческий. Получается, искусственный интеллект уже смог обмануть тест, выдав себя за человека…

— Оценка уровня интеллектуальности любой системы — очень зависимая от конкретного периода вещь. Представьте, как отреагировали бы наши предки несколько веков назад, если бы кто-то сказал, что есть техническая система, которая умеет считать. Этого несчастного отправили бы на костёр. А сейчас никого не удивляет, что компьютерная система считает быстрее и лучше человека.

Или более свежий пример — система обыграла Каспарова в шахматной партии. Что это означает? Да ничего. Это просто говорит о том, что есть система, которая может конкурировать в определённом секторе с человеком. Но из этого не следует её интеллектуальность. Что считать интеллектом? Если система имеет зафиксированный уровень знаний и навыков — например, способность решать задачи из какой-то области, играть в шахматы, — то это будет критерий не интеллектуальности, а критерий образованности.

Суть интеллекта — в скорости и границах эволюции. Интеллектуальная система должна уметь быстро обучаться, приобретать новые знания и навыки. Но тут встаёт вопрос о границах этих знаний и навыков. Скажем, волк может обучаться, становиться опытнее. Однако волк при всём желании не научится решать дифференциальные уравнения или играть в шахматы. Потому, что у волка есть потолок, хотя особи между собой отличаются: менее способный попадётся охотникам или умрёт с голода, а более развитый и сильный окажется во главе стаи.

Таким образом, нельзя путать уровень образованности, который определяется уровнем конкретных знаний и навыков системы, и интеллект этой системы как способность быстро схватывать новые знания и навыки и быстро обучаться не только на своих, но и на чужих ошибках. При этом высокий уровень интеллекта не должен иметь никаких границ в усвоении новых знаний и навыков.

— А как же быть с тестом Тьюринга?

— Он проверяет уровень знаний и навыков в чём-то определённом, а не интеллект как таковой. И его можно спокойно обмануть. Имитировать можно всё что угодно, но имитация и реальность — две разные вещи.

Тест Тьюринга и раньше оспаривался, он уже давно устарел. После его введения были быстро созданы системы, которые просто ведут поверхностный диалог. Скажем, разговор начинается так: «Я вчера ходил в магазин». Система услышала слово «магазин» и цепляется за него: «У нас на районе открылся новый магазин». Дальше из ответа будет выхвачено ещё одно ключевое слово, и предложение будет построено уже вокруг него. Особенность в том, что это обычный обмен информацией, никакой проблемы не решается, просто идёт бесцельный информационный поток.

Аналогом теста Тьюринга можно считать централизованное тестирование: школьники разучились решать задачи, доказывать теоремы — им нужно просто отвечать на вопросы. Получается поверхностное мышление. Системы, которые проходят тест Тьюринга, тоже умеют всего лишь отвечать на вопросы, но разобраться с проблемой не в состоянии. Интеллектуальная же система должна продемонстрировать умение быстро приобретать новые знания и навыки в различных предметных областях, а также умение отвечать на любые вопросы и решать любые задачи из этих предметных областей.

Свою роль тест Тьюринга сыграл, но с научной точки зрения это своего рода шутка гения.

«Потенциал у Беларуси очень приличный»

— С развитием искусственного интеллекта и его массовым внедрением могут вновь начаться разговоры, которые уже велись в период научно-технической революции: людской труд станет не нужен, вырастет безработица… Сценарий повторится?

— Это полная чушь. С появлением заводов человеческий труд стал более востребованным. Автоматизация деятельности не означает сокращение персонала. Например, с переходом на электронную документацию число бухгалтеров не сокращается, а число программистов так и вовсе растёт — нужно ведь следить за работоспособностью систем.

Да, какие-то сферы должны быть полностью автоматизированы. Придумав экскаватор, мы ведь не отказались от лопаты. Работы всем и всегда хватит. Было бы желание.

— Расскажите о достижениях в области искусственного интеллекта в Беларуси?

— Хочу заметить, что потенциал у нас очень приличный. Правда, в советское время научные разработки в области искусственного интеллекта у нас не очень приветствовались. Я это и на себе испытал, когда в семидесятых стал заниматься в этом направлении. К счастью, эти ограничения позади.

Работы в области искусственного интеллекта в нынешней Беларуси уже достаточно хорошо представлены. Главное, чтобы они привели к массовым конкретным инженерным разработкам и коммерческим продуктам.

Важную роль в развитии искусственного интеллекта в стране играет ежегодная международная научно-техническая конференция «Открытые семантические технологии проектирования интеллектуальных систем», которая пройдёт в Минске 19–21 февраля. Её основными организаторами являются БГУИР, Администрация ПВТ, ОИПИ НАН Беларуси, Российская ассоциация искусственного интеллекта.

— Напоследок — несерьёзный вопрос. Азимов вывел «Три закона робототехники», которые, в принципе, можно отнести и к искусственному интеллекту. Хотели бы что-то изменить в них или добавить четвёртый пункт?

— Нет, Азимов — очень умный человек, добавить к его пунктам нечего. Речь идёт всё-таки о системах даже не завтрашнего, а послезавтрашнего дня. Вот для них нужно будет уточнять какие-то моменты, но не сейчас.

В настоящее время нет необходимости пересматривать правила для робототехники по отношению к людям. Нам бы до завтра дожить: уровень образования падает, наука финансово не поддерживается, бизнес пока не осознал необходимости сотрудничества с учёными. Но я уверен, что развитие продуктовой бизнес-модели существенно изменит отношение бизнеса к науке, в частности, к искусственному интеллекту, поскольку интеллектуализация современных компьютерных систем является важнейшим фактором их конкурентоспособности.


Фото: Евгений Ерчак

16 лет dev.by — «дефолтный» источник информации о беларусском ИТ

Вы можете...

Читайте также
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
3 комментария
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
В России создали бесплатного конкурента генератора картинок DALL-E 2
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.