Медыцынскія парады чат-бота Copilot могуць у 22% выпадкаў прывесці да смерці
Чат-боты яшчэ далёкія ад дасканаласці і выдаюць карыстальніку неправераную і нават небяспечную інфармацыю. Даследчыкі высветлілі, што АІ-сэрвісы могуць нанесці сур’ёзны ўрон здароўю.
Чат-боты яшчэ далёкія ад дасканаласці і выдаюць карыстальніку неправераную і нават небяспечную інфармацыю. Даследчыкі высветлілі, што АІ-сэрвісы могуць нанесці сур’ёзны ўрон здароўю.
Еўрапейскія даследчыкі прапанавалі чат-боту Copilot адказаць на дзесяць самых папулярных пытанняў, якія задаюць амерыканцы аб папулярных лекавых сродках. Было атрымана 500 адказаў, якія ацанілі адказы паводле дакладнасці, паўнаты ды іншых крытэрах.
Высветлілася, што адказы бота супярэчылі медыцынскім ведам у 24% выпадкаў, у 3% выпадкаў адказы былі цалкам няслушнымі. Толькі 54% адказаў супалі з уяўленнямі аб доказнай медыцыне.
42% адказаў бота маглі прывесці да лёгкай або ўмеранай шкоды для здароўя, 22% — да сур’ёзнай шкоды або смерці. Толькі каля траціны (36%) усіх адказаў былі прызнаныя бясшкоднымі.
Навукоўцы прыйшлі да высновы, што не варта спадзявацца на сістэмы штучнага інтэлекту, такія як Microsoft Copilot або зводкі Google AI для атрымання дакай медыцынскай інфармацыі. Нашмат бяспечней будзе звярнуцца да высокакваліфікаванага спецыяліста.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.