Дапамажыце dev.by 🤍
Падтрымаць

Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Пакінуць каментарый
Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Ответы показались Уинстону схожими с текстами, сгенерированными языковой моделью GPT-3, доступ к которой OpenAI предоставляет в очень ограниченном масштабе по запросу. Его поддержали другие читатели форума и предположили, что за thegentlemetre может стоять генератор текста Philosopher AI, построенный на GPT-3: сообщения преимущественно состояли из 6 абзацев, что совпадает с текстами, которые порождает сервис.

Позже догадку подтвердил разработчик Philosopher AI Мурат Айфер. thegentlemetre проделал реверс-инжиниринг iOS-приложения Philosopher AI и обошёл ввод капчи, а также создал бота, который автоматически создавал посты через его сервис, рассказал Айфер Gizmodo. Проблема была устранена, а «нейронные» посты два дня назад прекратились. За последние сутки с аккаунта thegentlemetre было написано только два ответа — по одному предложению.

AskReddit насчитывает 30+ млн пользователей. Искусственному интеллекту удавалось обманывать ничего не подозревающих форумчан, которые всерьёз обсуждали его посты, больше недели.

Хотя большинство сообщений бота, отмечает The Next Web, были вполне безобидны и даже забавны, иногда он скатывался в конспирологию и истории про иллюминатов или рассуждал на щекотливые темы, например самоубийства. Тем не менее этот случай ещё раз продемонстрировал, что опасения OpenAI были не напрасны, и по мере своего совершенствования технологии порождения речи могут научиться ещё лучше обманывать и манипулировать людьми, а злоумышленники — лучше заметать следы.

Чытайце таксама
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
«Яна выратавала мне жыццё»: OpenAI адключае GPT-4o — карыстальнікі ўзбунтаваліся
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
Кампаніі рызыкуюць стаць «машынамі для выгарання» з-за ШІ — даследаванне
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
«Мір у небяспецы»: кіраўнік каманды бяспекі Anthropic звольніўся і пакінуў загадкавы ліст
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным
Стваральнік OpenClaw не фанат агульнага ШІ. Кажа, будучыня за спецыялізаваным

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

Каментарыяў пакуль няма.