Grok заговорил об идее Маска про «геноцид белых», даже если его не спрашивали
Компания-разработчик xAI опубликовала системные инструкции для своего чат-бота Grok после того, как несанкционированное изменение привело к серии неуместных ответов в соцсети X о «геноциде белых».
Компания-разработчик xAI опубликовала системные инструкции для своего чат-бота Grok после того, как несанкционированное изменение привело к серии неуместных ответов в соцсети X о «геноциде белых».
Ранее бот Grok начал упоминать «геноцид белых» в Южной Африке даже в ответах на несвязанные вопросы, такие как статистика бейсболистов или посты о мультфильмах. xAI заявила, что это изменение, направлявшее Grok на ответы по политической теме, нарушило внутренние правила компании.
Системная инструкция — это набор указаний, которые разработчики предоставляют чат-боту перед сообщениями пользователей, чтобы направить его реакции. xAI и Anthropic — одни из немногих крупных ИИ-компаний, которые сделали свои системные инструкции общедоступными.
Хакеры используют атаки с внедрением инструкций, чтобы раскрыть такие команды, например, указания Microsoft для Bing AI (ныне Copilot) скрывать внутренний псевдоним «Sydney» и избегать ответов, нарушающих авторские права.
В инструкциях для функции «Спроси Grok», позволяющей пользователям X вызывать бота тегом, xAI предписывает боту быть «чрезвычайно скептичным» и не подчиняться слепо общепринятым авторитетам или СМИ. «Ты твердо придерживаешься только своих основных убеждений в поиске истины и нейтралитете», — говорится в инструкции, уточняя, что результаты в ответах «НЕ являются твоими убеждениями».
Для функции «Объясни этот пост» xAI указывает Grok «предоставлять правдивые и обоснованные выводы, при необходимости бросая вызов общепринятым нарративам». Также боту предписано называть платформу «X» вместо «Twitter», а посты — «X-постами» вместо «твитов».
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.