17% скидка на размещение рекламы на площадках devby — до 20 ноября. Клац!
Support us

Модель OpenAI почти не отличить от людей: её приняли за живого собеседника в 3/4 случаев

Новое исследование ученых из Калифорнийского университета в Сан-Диего показало, что модель GPT-4.5 прошла классический тест Тьюринга, показав способность убедительно имитировать человека в онлайн-беседах.

4 комментария
Модель OpenAI почти не отличить от людей: её приняли за живого собеседника в 3/4 случаев

Новое исследование ученых из Калифорнийского университета в Сан-Диего показало, что модель GPT-4.5 прошла классический тест Тьюринга, показав способность убедительно имитировать человека в онлайн-беседах.

Тест, предложенный британским математиком Аланом Тьюрингом в 1950 году, служит для оценки способности машины демонстрировать разумное поведение, неотличимое от человеческого. Участники эксперимента общались с собеседниками (одним человеком и одним ботом) в текстовом формате в течение пяти минут, после чего им предлагалось определить, кто из них был человеком. Исследование проводилось среди двух групп: 126 студентов психологического факультета и 158 более взрослых работников компании Prolific.

Особенностью эксперимента стало использование двух типов подсказок для ИИ-моделей: стандартной просьбы убедить собеседника в своей человечности и персонализированной подсказки с заданной ролью, например, «интроверт, который разбирается в интернет-культуре». Именно в режиме с заданной ролью GPT-4.5 показала наилучший результат — 73%. При использовании стандартной подсказки без персоны этот показатель составил лишь 36%.

Для сравнения, другая модель — LLaMa 3.1–405B — в персонализированном режиме была принята за человека в 56% случаев, а без персоны — в 38%. Предыдущая модель OpenAI, GPT-4, в июне 2024 года прошла аналогичный тест с результатом в 54%. Модель GPT-4o показала значительно более низкий результат — всего 21%.

Ведущий автор исследования Кэмерон Джонс из Лаборатории языка и познания Калифорнийского университета в Сан-Диего, отметил, что результаты показывают, что современные большие языковые модели (LLM) могут заменять людей в коротких взаимодействиях без возможности быть распознанными. Он также предостерег, что это может привести к автоматизации рабочих мест, совершенствованию атак социальной инженерии и более широким социальным потрясениям.

Microsoft запустила ИИ-поисковик
Microsoft запустила ИИ-поисковик
По теме
Microsoft запустила ИИ-поисковик
Генератор изображений обрушил серверы OpenAI и замедлил выпуск новых функций
Генератор изображений обрушил серверы OpenAI и замедлил выпуск новых функций
По теме
Генератор изображений обрушил серверы OpenAI и замедлил выпуск новых функций
OpenAI подняла крупнейший частный инвестраунд в мире
OpenAI подняла крупнейший частный инвестраунд в мире
По теме
OpenAI подняла крупнейший частный инвестраунд в мире
Читайте также
«Вайбкодинг» стал словом года по версии словаря Collins
«Вайбкодинг» стал словом года по версии словаря Collins
«Вайбкодинг» стал словом года по версии словаря Collins
1 комментарий
Какие ниши в ИИ ещё не заняты — мнение инвестора
Какие ниши в ИИ ещё не заняты — мнение инвестора
Какие ниши в ИИ ещё не заняты — мнение инвестора
1 комментарий
Наняли ИИ-гения из колл-центра: почему ElevenLabs отказалась от найма через LinkedIn
Наняли ИИ-гения из колл-центра: почему ElevenLabs отказалась от найма через LinkedIn
Наняли ИИ-гения из колл-центра: почему ElevenLabs отказалась от найма через LinkedIn
ИИ заменил коллег: программисты жалуются на одиночество во время работы
ИИ заменил коллег: программисты жалуются на одиночество во время работы
ИИ заменил коллег: программисты жалуются на одиночество во время работы
2 комментария

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous
1

но тесты оно проваливает [Часть комментария скрыта за нарушение правил общения. Вот они, их всего пять: https://devby.io/news/comments-2024]

0

Во времена Тьюринга было нормально думать, что если компьютер сможет хорошо разговаривать, то в нем точно будет интеллект. Сейчас все понимают, что это не так. Или не совсем так - даже есть интеллект и есть, то он какой-то другой, трудно сравнимый с человеческим. Тест Тьюринга потерял актуальность. Думаю, он уже давно пройден - все зависит от того, кого посадить тестировать. Специалист по ИИ раскусит любую модель, мою бабушку впечатлит и GPT-2.

На циферблат часов смотрит другая модель, которая не умеет разговаривать. Она выдает массив объектов и координат. К ней вряд ли применимо понятие интеллекта.

Бессмысленно сравнивать нейроны ИИ и живых существ. У них общего только название. Да и то, в литературе обычно вместо "нейронов" используют слово "юнит".

shipishi
shipishi Должность в Белокрылые лошадки
0

"про все понимают" - мягко говоря, преувеличение, о чем в т.ч. свидетельствует данная статья.

0

Разве? Статья про факт прохождения теста Тьюринга, а не про то, что это означает. Единственный вывод:

современные большие языковые модели (LLM) могут заменять людей в коротких взаимодействиях без возможности быть распознанными

Ни слова про интеллект и разумность.