Британская семья отравилась из-за руководства по поиску грибов. Книгу написал ИИ

Пользователь Reddit рассказал, как его семья купила руководство по сбору грибов и отравилась. Оказалось, что книга полна ошибок и сгенерирована искусственным интеллектом.

1 комментарий

По словам Virtual_Cellist_736, его семья попала в больницу после употребления ядовитых грибов. Их собрали по рекомендациям книги, приобретенной на крупной онлайн-платформе. Эта книга была сгенерирована с использованием искусственного интеллекта и содержала грубые фактические ошибки.

После того, как у членов семьи появились симптомы отравления, подозрение пало на купленное руководство. При внимательном изучении оказалось, что текст состоял из странных несоответствий и бессмысленных фраз. Amazon удалил конкретную книгу и заявил, что старается отслеживать появление подобных изданий на своей платформе.

Эксперты предупреждают, что такие руководства могут быть потенциально опасными, так как содержат явные ошибки, которые могут угрожать жизни читателей. Например, в некоторых книгах даны рекомендации использовать запах и вкус для идентификации грибов, что может привести к смертельному исходу.

Почти половина соискателей используют ИИ для составления резюме
По теме
Почти половина соискателей используют ИИ для составления резюме
Opera выпустила мобильный браузер для iOS с ИИ-помощником
По теме
Opera выпустила мобильный браузер для iOS с ИИ-помощником
Reddit добавит ИИ в поиск для лучшего «погружения в контент»
По теме
Reddit добавит ИИ в поиск для лучшего «погружения в контент»

Читать на dev.by