Сузаснавальнік Google DeepMind прапанаваў, як зрабіць, каб АІ дакладна не знішчыў чалавецтва

Занадта хуткае развіццё АІ выклікала непакой, што аднойчы ён стане мацнейшы за людзей, а яго мэты разыдуцца з нашымі — і тады ён будзе пагражаць існаванню цывілізацыі. Сузаснавальнік DeepMind, АІ-падраздзялення Google, Мустафа Сулейман у нядаўнім інтэрв’ю MIT Technology Review прапанаваў спосаб пазбегнуць фатальнага развіцця падзей.

2 каментарыя

На думку прадпрымальніка, для гэтага распрацоўшчыкам дастаткова пазбавіць АІ некаторых базавых здольнасцяў. Напрыклад, да самаўдасканалення.

«Няможна дазваляць штучнаму інтэлекту самастойна абнаўляць свой код без вашага кантролю», — лічыць Сулейман. Ён дапусціў, што гэтую дзейнасць можна нават ліцэнзаваць — як працу з узбуджальнікамі сібірскай язвы або ядзернымі матэрыяламі.

Таксама даследчык лічыць, што ў гэтым кантэксце важна пазначыць дапушчальныя межы выкарыстання персанальных даных штучным інтэлектам.

Сооснователь DeepMind: генеративный ИИ — лишь этап. Будущее — интерактивный ИИ 
По теме
Сооснователь DeepMind: генеративный ИИ — лишь этап. Будущее — интерактивный ИИ

«Гаворка ідзе пра ўсталяванне межаў, лімітаў, якія АІ не мае пераходзіць», — кажа Сулейман. Таксама гэтыя межы маюць забяспечваць бяспеку на ўсіх этапах працы АІ: ад уласна праграмнага кода да ўзаемадзеяння з іншымі АІ-сістэмамі і людзьмі, а таксама матываў і мэтаў кампаній-распрацоўшчыкаў.

У цэлым Сулейман лічыць, што АІ-сферу можна эфектыўна рэгуляваць, і не верыць у сцэнар са знішчэннем людзей. Паводле яго слоў, перад намі сёння стаіць мноства практычнейшых пытанняў у галіне штучнага інтэлекту, уключаючы прыватнасць, перадузятасці, распазнаванне твараў і мадэрацыю АІ-кантэнту ў сеціве.


Читать на dev.by