17% скидка на размещение рекламы на площадках devby — до 20 ноября. Клац!
Support us

ИИ не обладает взглядами и ценностями — это все иллюзии пользователей

Новое исследование Массачусетского технологического института (MIT) ставит под сомнение представление о том, что по мере развития искусственный интеллект разрабатывает собственные «системы ценностей». Ученые пришли к выводу, что ИИ на самом деле не обладает какими-либо последовательными ценностями.

1 комментарий
ИИ не обладает взглядами и ценностями — это все иллюзии пользователей

Новое исследование Массачусетского технологического института (MIT) ставит под сомнение представление о том, что по мере развития искусственный интеллект разрабатывает собственные «системы ценностей». Ученые пришли к выводу, что ИИ на самом деле не обладает какими-либо последовательными ценностями.

Исследователи проанализировали несколько последних моделей от Meta, Google, Mistral, OpenAI и Anthropic, чтобы выяснить, в какой степени модели демонстрируют устойчивые «взгляды» и ценности (например, индивидуалистические или коллективистские). Ученые также выяснили, можно ли «направлять» эти взгляды и насколько упорно модели придерживались своих мнений в различных сценариях.

Согласно выводам, ни одна из моделей не продемонстрировала последовательности в своих предпочтениях. В зависимости от формулировки и структуры подсказок модели принимали совершенно разные точки зрения. Ученые считают это убедительным доказательством того, что модели крайне непоследовательны и нестабильны и, возможно, фундаментально неспособны усваивать человекоподобные предпочтения.

«Для меня самым важным выводом всего этого исследования стало понимание того, что модели на самом деле не являются системами, обладающими каким-то устойчивым набором убеждений и предпочтений. Вместо этого они — имитаторы, которые занимаются всевозможными вымыслами и говорят всякие пустяки», — сказал ведущий исследователь Стивен Каспер.

Майк Кук, научный сотрудник Королевского колледжа Лондона, специализирующийся на ИИ и не участвовавший в исследовании, согласился с выводами соавторов. Он отметил, что часто существует большая разница между «научной реальностью» систем, создаваемых лабораториями ИИ, и значениями, которые люди им приписывают.

«Модель не может, например, „противостоять“ изменению своих ценностей — это мы проецируем на систему. Любой, кто антропоморфизирует системы ИИ до такой степени, либо играет на публику, либо серьезно недопонимает их отношения с ИИ. Оптимизирует ли система ИИ свои цели или „приобретает собственные ценности“? Это вопрос того, как вы это описываете, и насколько образный язык вы хотите использовать по этому поводу», — считает эксперт.

В чат-боте Claude появилась новая подписка за $200 в месяц
В чат-боте Claude появилась новая подписка за $200 в месяц
По теме
В чат-боте Claude появилась новая подписка за $200 в месяц
Европа решила стать главным ИИ-континентом: ослабит регулирование построит ИИ-гигафабрики
Европа решила стать главным ИИ-континентом: ослабит регулирование, построит ИИ-гигафабрики
По теме
Европа решила стать главным ИИ-континентом: ослабит регулирование, построит ИИ-гигафабрики
Маск шпионит за госслужащими с помощью ИИ ищет инакомыслящих
Маск шпионит за госслужащими с помощью ИИ, ищет инакомыслящих
По теме
Маск шпионит за госслужащими с помощью ИИ, ищет инакомыслящих
Читайте также
ИИ-компании платят до $150 в час за обучение моделей, но только избранным
ИИ-компании платят до $150 в час за обучение моделей, но только избранным
ИИ-компании платят до $150 в час за обучение моделей, но только избранным
«Вами очень легко манипулировать»: гендиректор Perplexity высказался о любителях ИИ-компаньонов
«Вами очень легко манипулировать»: гендиректор Perplexity высказался о любителях ИИ-компаньонов
«Вами очень легко манипулировать»: гендиректор Perplexity высказался о любителях ИИ-компаньонов
Google придумала, как решить одну из главных проблем ИИ
Google придумала, как решить одну из главных проблем ИИ
Google придумала, как решить одну из главных проблем ИИ
В корпоративном ИИ Copilot вырывается вперёд, а Claude не оправдал ожиданий
В корпоративном ИИ Copilot вырывается вперёд, а Claude не оправдал ожиданий
В корпоративном ИИ Copilot вырывается вперёд, а Claude не оправдал ожиданий

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

shipishi
shipishi Должность в Белокрылые лошадки
0

надо же, целые ученые понадобились, что выяснить, что в сокращении LLM нет слов "мысль" и "сознание", а есть только language.