Медыцынскія чат-боты аказаліся экспертамі па шкодных парадах
Карыстальнікі ўсё часцей звяртаюцца да чат-ботаў па медыцынскія парады, але новае даследаванне брытанскіх вучоных ставіць пад сумнеў надзейнасць гэтых рэкамендацый.
Карыстальнікі ўсё часцей звяртаюцца да чат-ботаў па медыцынскія парады, але новае даследаванне брытанскіх вучоных ставіць пад сумнеў надзейнасць гэтых рэкамендацый.
Карыстальнікі ўсё часцей звяртаюцца да чат-ботаў па медыцынскія парады, але новае даследаванне брытанскіх вучоных ставіць пад сумнеў надзейнасць гэтых рэкамендацый.
Ва ўмовах перагружаных сістэм аховы здароўя і доўгіх чэргаў да лекараў многія людзі вымушаныя звяртацца да чат-ботаў для самадыягностыкі. Апытанне, праведзенае Оксфардскім інстытутам інтэрнэту, паказала, што прыкладна кожны шосты дарослы карыстальнік штомесяц выкарыстоўвае чат-ботаў для атрымання медыцынскіх рэкамендацый.
Даследаванне брытанскіх вучоных паказала, што празмерная залежнасць ад такіх тэхналогій можа быць рызыкоўнай, паколькі людзям складана падаваць чат-ботам правільную інфармацыю для атрымання дакладных рэкамендацый.
У даследаванні ўзялі ўдзел каля 1300 жыхароў Вялікабрытаніі. Удзельнікам прапаноўваліся медыцынскія сцэнары, распрацаваныя лекарамі, з задачай вызначыць магчымыя захворванні і далейшыя дзеянні (напрыклад, звярнуцца да доктара або шпіталізавацца). Яны выкарыстоўвалі тры папулярныя мадэлі ШІ: ChatGPT (GPT-4o), Command R+ ад Cohere і Llama 3 ад Meta, а таксама традыцыйныя метады, такія як пошук у інтэрнэце або ўласнае меркаванне.
Вынікі паказалі, што чат-боты зніжалі верагоднасць правільнай дыягностыкі захворванняў і павышалі верагоднасць недаацэнкі іх сур’ёзнасці. Доктар Адам Махдзі, суаўтар даследавання, паведаміў, што ўдзельнікі, якія выкарыстоўвалі чат-ботаў, прымалі рашэнні не лепш, чым тыя, хто спадзяваўся на традыцыйныя метады.
Асноўнымі праблемамі сталі пропуск ключавых дэталяў у запытах да чат-ботаў і цяжкасці з інтэрпрэтацыяй іх адказаў, якія часта ўтрымлівалі сумесь карысных і некарэктных рэкамендацый.
Тэхналагічныя кампаніі актыўна прасоўваюць ШІ як інструмент для паляпшэння здароўя. Apple распрацоўвае ШІ для парад па харчаванні і фізічнай актыўнасці, Amazon даследуе аналіз медыцынскіх даных, а Microsoft стварае ШІ для кіравання паведамленнямі пацыентаў.
Аднак эксперты і пацыенты разыходзяцца ў меркаваннях адносна гатоўнасці ШІ да выкарыстання ў медыцынскіх сцэнарах з высокім узроўнем рызыкі. Амерыканская медыцынская асацыяцыя (AMA) не рэкамендуе лекарам выкарыстоўваць чат-ботаў для клінічных рашэнняў, а OpenAI і іншыя распрацоўшчыкі папярэджваюць пра небяспеку дыягностыкі на падставе ШІ.
Доктар Махдзі падкрэсліў, што цяперашнія метады ацэнкі чат-ботаў не ўлічваюць складанасць узаемадзеяння з карыстальнікамі. Ён заклікаў абапірацца на надзейныя крыніцы інфармацыі і тэставаць ШІ-сістэмы ў рэальных умовах, як гэта робіцца з новымі лекамі. Даследчыкі настойваюць, што чат-боты павінны разглядацца як медыцынскія прадукты, якія патрабуюць грунтоўнай праверкі.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.