Дапамажыце dev.by 🤍
Падтрымаць

Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Пакінуць каментарый
Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Ответы показались Уинстону схожими с текстами, сгенерированными языковой моделью GPT-3, доступ к которой OpenAI предоставляет в очень ограниченном масштабе по запросу. Его поддержали другие читатели форума и предположили, что за thegentlemetre может стоять генератор текста Philosopher AI, построенный на GPT-3: сообщения преимущественно состояли из 6 абзацев, что совпадает с текстами, которые порождает сервис.

Позже догадку подтвердил разработчик Philosopher AI Мурат Айфер. thegentlemetre проделал реверс-инжиниринг iOS-приложения Philosopher AI и обошёл ввод капчи, а также создал бота, который автоматически создавал посты через его сервис, рассказал Айфер Gizmodo. Проблема была устранена, а «нейронные» посты два дня назад прекратились. За последние сутки с аккаунта thegentlemetre было написано только два ответа — по одному предложению.

AskReddit насчитывает 30+ млн пользователей. Искусственному интеллекту удавалось обманывать ничего не подозревающих форумчан, которые всерьёз обсуждали его посты, больше недели.

Хотя большинство сообщений бота, отмечает The Next Web, были вполне безобидны и даже забавны, иногда он скатывался в конспирологию и истории про иллюминатов или рассуждал на щекотливые темы, например самоубийства. Тем не менее этот случай ещё раз продемонстрировал, что опасения OpenAI были не напрасны, и по мере своего совершенствования технологии порождения речи могут научиться ещё лучше обманывать и манипулировать людьми, а злоумышленники — лучше заметать следы.

Чытайце таксама
Google ўрэзала доступ да Pro-версій Gemini 3 і Nano Banana, Alibaba дзеліць кліентаў па прыярытэту — кампаніі пакутуюць на папулярнасць
Google ўрэзала доступ да Pro-версій Gemini 3 і Nano Banana, Alibaba дзеліць кліентаў па прыярытэту — кампаніі пакутуюць на папулярнасць
Google ўрэзала доступ да Pro-версій Gemini 3 і Nano Banana, Alibaba дзеліць кліентаў па прыярытэту — кампаніі пакутуюць на папулярнасць
ШІ ужо зараз можа замяніць 12% амерыканскіх работнікаў
ШІ ужо зараз можа замяніць 12% амерыканскіх работнікаў
ШІ ужо зараз можа замяніць 12% амерыканскіх работнікаў
2 каментарыя
Сузаснавальнік OpenAI: галоўная стратэгія развіцця ШІ вычарпала сябе — трэба вяртацца да навуковых вытокаў
Сузаснавальнік OpenAI: галоўная стратэгія развіцця ШІ вычарпала сябе — трэба вяртацца да навуковых вытокаў
Сузаснавальнік OpenAI: галоўная стратэгія развіцця ШІ вычарпала сябе — трэба вяртацца да навуковых вытокаў
Nvidia: Google добрая, але мы на пакаленне наперадзе
Nvidia: Google добрая, але мы на пакаленне наперадзе
Nvidia: Google добрая, але мы на пакаленне наперадзе
3 каментарыя

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.