Дапамажыце dev.by 🤍
Падтрымаць

ИИ-алгоритм научили распознавать фейковые новости лучше людей

Пакінуць каментарый
ИИ-алгоритм научили распознавать фейковые новости лучше людей

Исследователи Мичиганского и Амстердамского университетов создали алгоритм машинного обучения, который определяет недостоверность новостей. Причём делать это у искусственного интеллекта уже получается лучше, чем у людей, сообщает The Next Web.

Программа использует технологии обработки естественного языка для поиска специфических закономерностей и лингвистических признаков, которые говорят о недостоверности новостей. Благодаря этому новый алгоритм отличается от типичного механизма проверки фактов и перекрёстных ссылок и способен полностью автоматизировать процесс идентификации новостей.

Но перед разработчиками возникло несколько проблем: во-первых, они столкнулись с нехваткой данных для обучения модели, а во-вторых, с необходимостью сформировать набор правил, понятных компьютеру.

Поэтому исследователям нужно быть дать определение «ложных новостей». Такими они считают новости, подделываемые намеренно, с целью массового распространения в соцсетях, а также статьи юмористического и сатирического содержания. Помимо этого, алгоритм должен уметь распознавать правдивые статьи и учитывать такие факторы, как срочность, стиль написания и культурная интерпретация.

Исследователи собрали собственный датасет, попросив участников краудсорсинговой интернет-платформы Amazon Mechanical Turk переделать 500 настоящих новостных статей. Они должны были сымитировать стиль оригинала, но заменить факты настолько, чтобы они выглядели как явная подделка.

Сфабрикованные и оригинальные тексты «скормили» алгоритму, который научился различать их. Затем ему показали ложные и настоящие новости из специального набора данных.

Точность ИИ в определении фальшивок достигла 76 процентов, в то время как люди оказывались правы менее чем в 70 процентах случаев.

Чытайце таксама
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

Каментарыяў пакуль няма.