Код, які дапамагаюць пісаць АІ-асістэнты, часцей выяўляецца няякасным

Як высветлілі даследчыкі Стэнфарда, код праграмістаў, якія ўжываюць інструменты на базе штучнага інтэлекту накшталт Github Copilot або Facebook InCoder, выяўляецца менш надзейным, ніж у тых, хто кодзіць сам.

1 каментарый

Больш за тое, выкарыстанне такіх памочнікаў стварае ў праграмістаў ілжывае ўражанне, што код добры.

«Мы выявілі, што код удзельнікаў, якія мелі доступ да АІ-асістэнтаў, часцяком утрымліваў больш уразлівасцей бяспекі, ніж код тых, у каго такога доступу не было, прычым асабліва гэта тычылася шыфравання радкоў і ўкаранення SQL-кода. На сваё здзіўленне мы таксама выявілі, што ўдзельнікі з доступам да АІ-асістэнтаў былі больш схільныя меркаваць, што іх код бяспечны, ніж удзельнікі без доступу да АІ-асістэнтаў», — кажуць аўтары даследавання.

Раней у 2021 годзе да аналагічнай высновы пра бяспеку кода, створанага паводле падказак АІ, прыйшлі спецыялісты з Нью-Ёркскага ўніверсітэта. У цэнтры ўвагі таксама быў Copilot, і прыкладна 40% праграм, напісаных для 89 сцэнароў пры дапамозе інструмента, мелі ўразлівасці, якія можна было б эксплуатаваць.

У сеціве набірае папулярнасць новы чатбот ChatGPT. Адныя кажуць, што ён лепшы за Google, іншыя — баняць
Па тэме
У сеціве набірае папулярнасць новы чатбот ChatGPT. Адныя кажуць, што ён лепшы за Google, іншыя — баняць

У рамках Стэнфардскага даследавання разглядалася тры мовы: Python, Javascript і С. У ім удзельнічалі 47 праграмістаў рознага ўзроўню ад студэнтаў да дасведчаных прафесіяналаў. Ім было прапанавана па пяць задач.

Даследчыкі адзначаюць, што карыстацца АІ-памочнікамі трэба з асцярожнасцю, паколькі яны могуць уводзіць у зман недасведчаных распрацоўшчыкаў і прывесці да з’яўлення ўразлівасцей. Але яны таксама спадзяюцца, што іх высновы заахвоцяць распрацоўшчыкаў удасканальваць такія інструменты, паколькі ў перспектыве яны могуць павысіць эфектыўнасць праграмістаў і знізіць парог уваходу ў сферу, а таксама спрасціць жыццё тым, хто не любіць шукаць адказы на форумах.


Читать на dev.by