Сузаснавальнік Google DeepMind прапанаваў, як зрабіць, каб АІ дакладна не знішчыў чалавецтва
Занадта хуткае развіццё АІ выклікала непакой, што аднойчы ён стане мацнейшы за людзей, а яго мэты разыдуцца з нашымі — і тады ён будзе пагражаць існаванню цывілізацыі. Сузаснавальнік DeepMind, АІ-падраздзялення Google, Мустафа Сулейман у нядаўнім інтэрв’ю MIT Technology Review прапанаваў спосаб пазбегнуць фатальнага развіцця падзей.
На думку прадпрымальніка, для гэтага распрацоўшчыкам дастаткова пазбавіць АІ некаторых базавых здольнасцяў. Напрыклад, да самаўдасканалення.
«Няможна дазваляць штучнаму інтэлекту самастойна абнаўляць свой код без вашага кантролю», — лічыць Сулейман. Ён дапусціў, што гэтую дзейнасць можна нават ліцэнзаваць — як працу з узбуджальнікамі сібірскай язвы або ядзернымі матэрыяламі.
Таксама даследчык лічыць, што ў гэтым кантэксце важна пазначыць дапушчальныя межы выкарыстання персанальных даных штучным інтэлектам.
«Гаворка ідзе пра ўсталяванне межаў, лімітаў, якія АІ не мае пераходзіць», — кажа Сулейман. Таксама гэтыя межы маюць забяспечваць бяспеку на ўсіх этапах працы АІ: ад уласна праграмнага кода да ўзаемадзеяння з іншымі АІ-сістэмамі і людзьмі, а таксама матываў і мэтаў кампаній-распрацоўшчыкаў.
У цэлым Сулейман лічыць, што АІ-сферу можна эфектыўна рэгуляваць, і не верыць у сцэнар са знішчэннем людзей. Паводле яго слоў, перад намі сёння стаіць мноства практычнейшых пытанняў у галіне штучнага інтэлекту, уключаючы прыватнасць, перадузятасці, распазнаванне твараў і мадэрацыю АІ-кантэнту ў сеціве.
Читать на dev.by