Беларус требовал от врачей лекарства, которые ему «прописал» чат-бот
Издание «Гомельская праўда» пообщалось со специалистами на тему взаимоотношений беларусов с чат-ботами.
Издание «Гомельская праўда» пообщалось со специалистами на тему взаимоотношений беларусов с чат-ботами.
Издание «Гомельская праўда» пообщалось со специалистами на тему взаимоотношений беларусов с чат-ботами.
Заведующая психологическим отделением областной клинической психиатрической больницы Ирина Лисогурская рассказала случай, когда за помощью обратился взрослый человек. Специалист его выслушал, поговорил и назначил таблетки.
«После этого пациент достал распечатку с рекомендациями чат-бота и заявил, что его лечат неправильно, а искусственный интеллект знает лучше. Он настаивал на том, чтобы мои коллеги выписали препараты, которые посоветовала нейросеть», — отметила психолог. Она пояснила, что некоторые лекарства отпускаются только по рецепту не случайно, и просто так их не купить.
Ещё одним эпизодом с Лисогурской поделились коллеги. В одной из гомельских больниц жена пациента принесла в реанимацию распечатки с советами от нейросети и давала указания, как лечить мужа. Психолог отметила, что сейчас многие слепо верят тому, что говорит им машина, и пытаются навязать это врачам. Она подчеркнула, что ИИ — лишь программа, в базовых настройках которой соглашаться со всем, чтобы в дальнейшем хотелось ею пользоваться.
«С появлением интернета наши люди любят лечиться у „доктора Гугла“ и „медсестры Яндекс“. Теперь к ним присоединился „интерн GPT“, который всегда выслушает, бесплатно посочувствует и никогда не осудит», — рассказала Лисогурская.
По её словам, люди обращаются к ИИ за диагнозом по трём причинам. Во-первых, это бесплатно. Во-вторых, анонимно — пойти к врачу и рассказать о своей проблеме бывает страшно, а когда никто не узнает твою личность, можно больше рассказать о себе. В-третьих, не надо ждать очереди.
Психолог считает, что в этом кроется главная опасность. Врач подбирает лечение с учётом возраста, пола, анамнеза и темперамента пациента. Интернет этого не делает — у него есть некие базовые рекомендации, которые даются всем подряд, и они могут принести больше вреда, чем пользы.



Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
В целом современные модели ИИ (в том числе ChatGPT, но с оговорками ниже) В СРЕДНЕМ дают более разумные рекомендации, чем среднестатистический врач.
При условии что:
a) Для первичной консультации используется адекватная модель (а не ChatGPT без регистрации, который заметно тупее интернов из одноименного сериала).
b) В запрос включен правильно составленный анамнез (а с этим у большинства пациентов есть серьезные проблемы).
c) Пользователь ЗАДАЕТ ВОПРОС модели о медицинских рекомендациях, а не предлагает согласиться с позицией пользователя.
d) Все неоднозначные моменты проясняются правильно сформулированными дополнительными вопросами.
e) Полученные рекомендации ОБЯЗАТЕЛЬНО проверяются у другой модели ИИ, уровнем не ниже модели для первичной консультации.
Насчет получения рецептов для рецептурных препаратов в РБ по рекомендациям ИИ - есть реально работающий лайфхак, но я не буду его опубличивать по вполне понятным причинам.
Пользователь отредактировал комментарий 30 марта 2026, 16:56