ИИ не обладает взглядами и ценностями — это все иллюзии пользователей
Новое исследование Массачусетского технологического института (MIT) ставит под сомнение представление о том, что по мере развития искусственный интеллект разрабатывает собственные «системы ценностей». Ученые пришли к выводу, что ИИ на самом деле не обладает какими-либо последовательными ценностями.
Новое исследование Массачусетского технологического института (MIT) ставит под сомнение представление о том, что по мере развития искусственный интеллект разрабатывает собственные «системы ценностей». Ученые пришли к выводу, что ИИ на самом деле не обладает какими-либо последовательными ценностями.
Исследователи проанализировали несколько последних моделей от Meta, Google, Mistral, OpenAI и Anthropic, чтобы выяснить, в какой степени модели демонстрируют устойчивые «взгляды» и ценности (например, индивидуалистические или коллективистские). Ученые также выяснили, можно ли «направлять» эти взгляды и насколько упорно модели придерживались своих мнений в различных сценариях.
Согласно выводам, ни одна из моделей не продемонстрировала последовательности в своих предпочтениях. В зависимости от формулировки и структуры подсказок модели принимали совершенно разные точки зрения. Ученые считают это убедительным доказательством того, что модели крайне непоследовательны и нестабильны и, возможно, фундаментально неспособны усваивать человекоподобные предпочтения.
«Для меня самым важным выводом всего этого исследования стало понимание того, что модели на самом деле не являются системами, обладающими каким-то устойчивым набором убеждений и предпочтений. Вместо этого они — имитаторы, которые занимаются всевозможными вымыслами и говорят всякие пустяки», — сказал ведущий исследователь Стивен Каспер.
Майк Кук, научный сотрудник Королевского колледжа Лондона, специализирующийся на ИИ и не участвовавший в исследовании, согласился с выводами соавторов. Он отметил, что часто существует большая разница между «научной реальностью» систем, создаваемых лабораториями ИИ, и значениями, которые люди им приписывают.
«Модель не может, например, „противостоять“ изменению своих ценностей — это мы проецируем на систему. Любой, кто антропоморфизирует системы ИИ до такой степени, либо играет на публику, либо серьезно недопонимает их отношения с ИИ. Оптимизирует ли система ИИ свои цели или „приобретает собственные ценности“? Это вопрос того, как вы это описываете, и насколько образный язык вы хотите использовать по этому поводу», — считает эксперт.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
надо же, целые ученые понадобились, что выяснить, что в сокращении LLM нет слов "мысль" и "сознание", а есть только language.