ChatGPT помог раскрыть масштабную кампанию по запугиванию инакомыслящих в одной стране
В OpenAI рассказали, что ChatGPT помог вскрыть масштабную кампанию преследования и давления на критиков китайских властей, пишет CyberScoop со ссылкой на доклад компании.
В OpenAI рассказали, что ChatGPT помог вскрыть масштабную кампанию преследования и давления на критиков китайских властей, пишет CyberScoop со ссылкой на доклад компании.
Один аккаунт, связанный с китайским правоохранительным органом, регулярно загружал в ChatGPT внутренние отчёты о так называемых «специальных кибероперациях», чтобы редактировать и анализировать их. Эти материалы позволили увидеть, как устроена система слежки и давления. Судя по содержанию отчётов, речь идёт о комплексной и длительной кампании по подавлению инакомыслия — как онлайн, так и офлайн, как внутри страны, так и за её пределами.
В отчётах описывается масштабная и ресурсоёмкая инфраструктура операции, включающая сотни сотрудников, тысячи фейковых аккаунтов в разных соцсетях, а также локальные китайские ИИ-модели. Среди методов — массовое создание и распространение контента, атаки жалобами на аккаунты диссидентов, подделка документов и даже попытки запугивания с использованием образов американских чиновников.
Отдельно OpenAI зафиксировала ещё одну активность, вероятно связанную с Китаем: группа аккаунтов запрашивала через ChatGPT информацию о гражданах США, онлайн-форумах и расположении федеральных зданий. Также генерировались письма якобы от гонконгской компании Nimbus Hub Consulting с приглашениями к платным консультациям для американских чиновников и аналитиков. В переписке часто пытались перевести общение в сторонние каналы, например в WhatsApp, Zoom или Teams.
В одном из случаев пользователи просили пошаговые инструкции по установке софта FaceFusion для подмены лиц в реальном времени. ChatGPT в ответ выдавал только общедоступную информацию из открытых источников и документации, без каких-либо дополнительных инструкций.
OpenAI подчёркивает, что у неё нет данных о том, что ChatGPT использовался для автоматизированных кибератак. В отчёте речь скорее об операциях вроде пропаганды и мошеннических схем. В частности, компания описывает четыре скрытые информационные кампании и три схемы «романтического» мошенничества, где ИИ помогал генерировать сообщения и вести переписку с жертвами.
В целом наблюдаемая картина совпадает с тем, о чём ранее говорили и другие компании: злоумышленники пока используют ИИ точечно, как инструмент для ускорения отдельных задач. Это может быть генерация пропаганды, мониторинг соцсетей или полировка фишинговых сообщений. ИИ в таких случаях выступает скорее усилителем уже существующих процессов, а не самостоятельным инструментом атак.
Также подчёркивается, что такие операции редко завязаны на один инструмент: участники используют сразу несколько моделей. В описанном случае, помимо ChatGPT, упоминаются и локальные китайские системы, такие как DeepSeek. Как отмечают в OpenAI, «угрозы редко ограничиваются одной платформой или одной моделью» — разные инструменты применяются на разных этапах одной и той же операции.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.