Разраб придумал способ снизить расходы на токены в разы
В сообществе разработчиков набирает популярность необычный способ экономии при работе с ИИ: пользователи учат модель говорить «как пещерный человек», чтобы сократить расход токенов.
В сообществе разработчиков набирает популярность необычный способ экономии при работе с ИИ: пользователи учат модель говорить «как пещерный человек», чтобы сократить расход токенов.
В сообществе разработчиков набирает популярность необычный способ экономии при работе с ИИ: пользователи учат модель говорить «как пещерный человек», чтобы сократить расход токенов.
В треде r/ClaudeAI на Reddit разработчик предложил упростить стиль ответов Claude без вводных фраз, пояснений и «вежливых» конструкций. Вместо этого модель выдает короткие, телеграфные ответы: сначала результат, затем минимум слов. По его оценке, это позволяет снизить расход выходных токенов до 75%.
Пост набрал более 10 тысяч голосов и сотни комментариев, а сама идея быстро разошлась по сообществу. «Зачем тратить время на много слов, если справляются несколько слов?» — пояснил один из пользователей, описывая суть подхода.
Проведенные тесты показали, что ответы ИИ становятся значительно короче. Например, объяснение бага в React сократилось с 1180 до 159 токенов (–87%), настройка PostgreSQL — с 2347 до 380 (–84%), а реализация error boundary — с 3454 до 456 токенов (–87%). В среднем экономия составляет около 60–65% в зависимости от задачи.
Разработчик Shawnchee оформил «пещерный стиль» в отдельный инструмент, который работает с разными ИИ-сервисами, включая Claude Code и другие. Суть простая: убрать лишние слова, не делать вступлений и пояснений без необходимости, сначала выполнять задачу, а не описывать ее, и давать максимально короткие ответы. Похожее решение сделал и разработчик Julius Brussee.
Однако у подхода есть ограничения. Как отмечают пользователи, экономия касается только выходных токенов, тогда как основная нагрузка часто приходится на входные данные: контекст, файлы и историю диалога. В реальных сценариях это снижает общий эффект примерно до 20–25%. Также обсуждается влияние подхода на качество ответов. Некоторые участники считают, что чрезмерное упрощение языка может ухудшать рассуждение модели и снижать точность в сложных задачах.



Релоцировались? Теперь вы можете комментировать без верификации аккаунта.