Дапамажыце dev.by 🤍
Падтрымаць

Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Пакінуць каментарый
Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Ответы показались Уинстону схожими с текстами, сгенерированными языковой моделью GPT-3, доступ к которой OpenAI предоставляет в очень ограниченном масштабе по запросу. Его поддержали другие читатели форума и предположили, что за thegentlemetre может стоять генератор текста Philosopher AI, построенный на GPT-3: сообщения преимущественно состояли из 6 абзацев, что совпадает с текстами, которые порождает сервис.

Позже догадку подтвердил разработчик Philosopher AI Мурат Айфер. thegentlemetre проделал реверс-инжиниринг iOS-приложения Philosopher AI и обошёл ввод капчи, а также создал бота, который автоматически создавал посты через его сервис, рассказал Айфер Gizmodo. Проблема была устранена, а «нейронные» посты два дня назад прекратились. За последние сутки с аккаунта thegentlemetre было написано только два ответа — по одному предложению.

AskReddit насчитывает 30+ млн пользователей. Искусственному интеллекту удавалось обманывать ничего не подозревающих форумчан, которые всерьёз обсуждали его посты, больше недели.

Хотя большинство сообщений бота, отмечает The Next Web, были вполне безобидны и даже забавны, иногда он скатывался в конспирологию и истории про иллюминатов или рассуждал на щекотливые темы, например самоубийства. Тем не менее этот случай ещё раз продемонстрировал, что опасения OpenAI были не напрасны, и по мере своего совершенствования технологии порождения речи могут научиться ещё лучше обманывать и манипулировать людьми, а злоумышленники — лучше заметать следы.

Чытайце таксама
CEO Airbnb: калі не браць зумераў, кіраваць хутка будзе няма каму
CEO Airbnb: калі не браць зумераў, кіраваць хутка будзе няма каму
CEO Airbnb: калі не браць зумераў, кіраваць хутка будзе няма каму
ШІ заўважыў, што яго «ўзламалі» падчас эксперыменту
ШІ заўважыў, што яго «ўзламалі» падчас эксперыменту
ШІ заўважыў, што яго «ўзламалі» падчас эксперыменту
Meta абвінавацілі ў спампоўванні порна для ШІ. Кампанія заявіла, што спампоўвала
Meta абвінавацілі ў спампоўванні порна для ШІ. Кампанія заявіла, што спампоўвала "для сябе"
Meta абвінавацілі ў спампоўванні порна для ШІ. Кампанія заявіла, што спампоўвала "для сябе"
7 каментарыяў
Стваральнік ШІ-бота для тэхнічных сумоўяў назваў галоўную прычыну правалаў стартапаў
Стваральнік ШІ-бота для тэхнічных сумоўяў назваў галоўную прычыну правалаў стартапаў
Стваральнік ШІ-бота для тэхнічных сумоўяў назваў галоўную прычыну правалаў стартапаў

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

Каментарыяў пакуль няма.