Support us

Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Оставить комментарий
Бот на базе GPT-3 неделю выдавал себя за человека на Reddit

Читатель Reddit Филип Уинстон обратил внимание на поразительную скорость, с которой пользователь под ником thegentlemetre выдавал ответы в сабреддите AskReddit — на один вопрос в минуту, при том что эти ответы были достаточно развёрнутыми и выглядели правдоподобно. Как выяснилось, их постил бот на основе нейросети OpenAI, пишет Gizmodo.

Ответы показались Уинстону схожими с текстами, сгенерированными языковой моделью GPT-3, доступ к которой OpenAI предоставляет в очень ограниченном масштабе по запросу. Его поддержали другие читатели форума и предположили, что за thegentlemetre может стоять генератор текста Philosopher AI, построенный на GPT-3: сообщения преимущественно состояли из 6 абзацев, что совпадает с текстами, которые порождает сервис.

Позже догадку подтвердил разработчик Philosopher AI Мурат Айфер. thegentlemetre проделал реверс-инжиниринг iOS-приложения Philosopher AI и обошёл ввод капчи, а также создал бота, который автоматически создавал посты через его сервис, рассказал Айфер Gizmodo. Проблема была устранена, а «нейронные» посты два дня назад прекратились. За последние сутки с аккаунта thegentlemetre было написано только два ответа — по одному предложению.

AskReddit насчитывает 30+ млн пользователей. Искусственному интеллекту удавалось обманывать ничего не подозревающих форумчан, которые всерьёз обсуждали его посты, больше недели.

Хотя большинство сообщений бота, отмечает The Next Web, были вполне безобидны и даже забавны, иногда он скатывался в конспирологию и истории про иллюминатов или рассуждал на щекотливые темы, например самоубийства. Тем не менее этот случай ещё раз продемонстрировал, что опасения OpenAI были не напрасны, и по мере своего совершенствования технологии порождения речи могут научиться ещё лучше обманывать и манипулировать людьми, а злоумышленники — лучше заметать следы.

Место солидарности беларусского ИТ-комьюнити

Далучайся!

Читайте также
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
Meta разработала ИИ для «чтения мыслей»
«Будут проблемы». Что нас ждёт, когда картинок от нейросетей станет слишком много
«Будут проблемы». Что нас ждёт, когда картинок от нейросетей станет слишком много
Bubble
«Будут проблемы». Что нас ждёт, когда картинок от нейросетей станет слишком много
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
Во Франции искусственный интеллект помогает искать нелегальные бассейны и штрафовать нарушителей
3 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.