Медицинские советы чат-бота Copilot могут в 22% случаев привести к смерти

Чат-боты еще далеки от совершенства и выдают пользователю непроверенную и даже опасную информацию. Исследователи выяснили, что ИИ-сервисы могут нанести серьезный ущерб здоровью.

Оставить комментарий

Европейские исследователи предложили чат-боту Copilot ответить на десять самых популярных вопросов, которые задают американцы о популярных лекарственных средствах. Было получено 500 ответов, которые оценили по точности, полноте и другим критериям.

Оказалось, что ответы бота противоречили медицинским знаниям в 24% случаев, в 3% случаев ответы были полностью неверными. Только 54% ответов совпали с представлениями о доказательной медицине.

42% ответов бота могли привести к легкому или умеренному вреду для здоровья, 22% — к серьезному вреду или смерти. Только около трети (36%) всех ответов были признаны безвредными.

Ученые пришли к выводу, что не следует полагаться на системы искусственного интеллекта, такие как Microsoft Copilot или сводки Google AI для получения точной медицинской информации. Намного безопаснее будет обратиться к высококвалифицированному специалисту.

«Я разослал резюме на 2843 вакансии, по 17 в час»: как ИИ-боты вытесняют людей из процесса найма
По теме
«Я разослал резюме на 2843 вакансии, по 17 в час»: как ИИ-боты вытесняют людей из процесса найма
В США роботы-пылесосы начали грязно ругаться и преследовать собак
По теме
В США роботы-пылесосы начали грязно ругаться и преследовать собак
Чат-бот Meta AI скоро будет доступен в 43 странах
По теме
Чат-бот Meta AI скоро будет доступен в 43 странах

Читать на dev.by