Сузаснавальнік Google DeepMind прапанаваў, як зрабіць, каб АІ дакладна не знішчыў чалавецтва
Занадта хуткае развіццё АІ выклікала непакой, што аднойчы ён стане мацнейшы за людзей, а яго мэты разыдуцца з нашымі — і тады ён будзе пагражаць існаванню цывілізацыі. Сузаснавальнік DeepMind, АІ-падраздзялення Google, Мустафа Сулейман у нядаўнім інтэрв’ю MIT Technology Review прапанаваў спосаб пазбегнуць фатальнага развіцця падзей.
Занадта хуткае развіццё АІ выклікала непакой, што аднойчы ён стане мацнейшы за людзей, а яго мэты разыдуцца з нашымі — і тады ён будзе пагражаць існаванню цывілізацыі. Сузаснавальнік DeepMind, АІ-падраздзялення Google, Мустафа Сулейман у нядаўнім інтэрв’ю MIT Technology Review прапанаваў спосаб пазбегнуць фатальнага развіцця падзей.
На думку прадпрымальніка, для гэтага распрацоўшчыкам дастаткова пазбавіць АІ некаторых базавых здольнасцяў. Напрыклад, да самаўдасканалення.
«Няможна дазваляць штучнаму інтэлекту самастойна абнаўляць свой код без вашага кантролю», — лічыць Сулейман. Ён дапусціў, што гэтую дзейнасць можна нават ліцэнзаваць — як працу з узбуджальнікамі сібірскай язвы або ядзернымі матэрыяламі.
Таксама даследчык лічыць, што ў гэтым кантэксце важна пазначыць дапушчальныя межы выкарыстання персанальных даных штучным інтэлектам.
«Гаворка ідзе пра ўсталяванне межаў, лімітаў, якія АІ не мае пераходзіць», — кажа Сулейман. Таксама гэтыя межы маюць забяспечваць бяспеку на ўсіх этапах працы АІ: ад уласна праграмнага кода да ўзаемадзеяння з іншымі АІ-сістэмамі і людзьмі, а таксама матываў і мэтаў кампаній-распрацоўшчыкаў.
У цэлым Сулейман лічыць, што АІ-сферу можна эфектыўна рэгуляваць, і не верыць у сцэнар са знішчэннем людзей. Паводле яго слоў, перад намі сёння стаіць мноства практычнейшых пытанняў у галіне штучнага інтэлекту, уключаючы прыватнасць, перадузятасці, распазнаванне твараў і мадэрацыю АІ-кантэнту ў сеціве.
Просто хотят конкурентам из других стран процесс разработки замедлить. Чтоб потом граждане этих стран вместо разработанных роботов на поле боя умирали.
Карыстальнік адрэдагаваў каментарый 21 верасня 2023, 18:32
Anonymous
22 верасня 2023, 01:59
1
Да ну, бред. Все равно найдется тот кто даст эту возможность и как итог он победит в гонки по ИИ.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
За все хорошее, против всего плохого.
https://devby.io/news/v-google-rabotaut-desyatki-byvshih-agentov-tsru-1659258492
Кому как не улыбчивым праням из ЦРУ, затравливающим собаками похищенных в гуантанамо без суда и следствия арабов, доверять в этических нормах, спасающихся цивилизацию.
Улыбчивый парень не хочет за военный контракт пояснить?:
www.cnbc.com/amp/2018/05/30/new-york-times-digital-how-a-pentagon-contract-became-an-identity-crisis-for-google.html
"считает, что ИИ-сферу можно эффективно регулировать, и не верит в сценарий с уничтожением людей"
Именно поэтому на их гранты создают робособак с искусственным интеллактом, с прикрученными на них пулемётами?
Зачем тогда такие законодательные акты принимать?:
https://www.law.virginia.edu/news/202212/killer-robots-have-been-approved-fight-crime-what-are-legal-ethical-concerns
Просто хотят конкурентам из других стран процесс разработки замедлить. Чтоб потом граждане этих стран вместо разработанных роботов на поле боя умирали.
Карыстальнік адрэдагаваў каментарый 21 верасня 2023, 18:32
Да ну, бред. Все равно найдется тот кто даст эту возможность и как итог он победит в гонки по ИИ.