ChatGPT оказался лучше врачей в консультациях пациентов — и даже более сочувствующим
Чатбот ChatGPT оказался лучше профессиональных врачей в медицинских консультациях: он предоставляет более подробные и чуткие ответы, пишет kod.ru. Исследование было опубликовано в журнале JAMA Internal Medicine.
Авторы работы проанализировали 195 случайных вопросов и ответов с Reddit, где пользователи обращались к врачам за консультацией по различным вопросам. Далее исследователи задали аналогичные вопросы ChatGPT, и группа медицинских специалистов оценила их. ChatGPT получил более высокие оценки за качество ответов и эмпатию к пациентам, чем врачи.
Средняя оценка ответов чатбота была лучше, чем «хорошо», а ответы врачей в среднем были на 21% хуже и оценивались на «приемлемо». ChatGPT оказался на 80,5% более эмпатичным к людям. Врачи чаще получали оценки «слегка сочувствующих», в то время как чатбот был либо «сочувствующим», либо «очень сочувствующим» к своим собеседникам.
Для примера один мужчина рассказал, что испытывает боль в руке при чихании и спросил, есть ли повод для беспокойства. Врач ответил: «В целом нет». ChatGPT же предоставил подробный ответ из пяти абзацев с описанием возможных причин боли и рекомендациями.
Тем не менее исследователи подчеркнули, что риски и преимущества применения чатботов в медицине требуют дополнительного изучения. С развитием технологий увеличивается потенциальный вред, который может быть нанесён искусственным интеллектом. В то же время многие врачи считают, что ChatGPT может помочь им с электронной перепиской, даже если не будет предоставлять консультации напрямую.
У chat GPT и аналогов есть одна большая проблема: они не могут ответить "я не знаю". Они всегда дают ответ, даже если он неправильный. Они могут сослаться на несуществующие библиотеки, дать несуществующие ссылки и придумать первоисточники. Каждый их ответ нужно проверять. Что-то диагностировать с помощью chat GPT - это довольно странное и опасное занятие.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Тема следующего исследования: "ChatGPT показал себя лучше в сексе чем ученые: журналисты приятно удивлены."
У chat GPT и аналогов есть одна большая проблема: они не могут ответить "я не знаю". Они всегда дают ответ, даже если он неправильный. Они могут сослаться на несуществующие библиотеки, дать несуществующие ссылки и придумать первоисточники. Каждый их ответ нужно проверять. Что-то диагностировать с помощью chat GPT - это довольно странное и опасное занятие.
кучерявые давиды тоже не говорят вам в ответ "я не знаю"
так что это не баг, а национальная особенность
и да, за ними тоже надо все проверять
Тебя что, так долго и со вкусом буцкали в кибуце, что до сих пор болит?