Токенмаксинг не поможет: ИИ-код создаёт иллюзию продуктивности
В индустрии разработки набирает популярность «токенмаксинг» — стремление программистов использовать как можно больше токенов ИИ. Однако такая практика может создавать иллюзию продуктивности.
В индустрии разработки набирает популярность «токенмаксинг» — стремление программистов использовать как можно больше токенов ИИ. Однако такая практика может создавать иллюзию продуктивности.
Такие инструменты, как Cursor, Claude Code и Codex, позволяют разработчикам создавать больше изменений в кодовой базе — количество pull request может вырастать вдвое. Однако это достигается непропорциональной ценой: по данным Jellyfish, для такого роста требуется до десятикратного увеличения затрат на токены. В результате растет объем работы, но не ее ценность.
Параллельно фиксируется резкий рост code churn — объема кода, который переписывается или удаляется. Согласно отчету Faros AI за март 2026 года, при активном использовании ИИ этот показатель увеличился на 861%. GitClear в январе сообщила, что разработчики, регулярно использующие ИИ, сталкиваются с churn в 9,4 раза чаще, чем их коллеги без таких инструментов, что фактически нивелирует выигрыш в скорости.
Аналитика Waydev показывает, что проблема кроется в метриках. Сразу после генерации до 80–90% ИИ-кода принимается разработчиками, но в течение следующих недель значительная его часть перерабатывается. В итоге реальная доля кода, который остается в проекте без существенных изменений, падает до 10–30%.
Этот разрыв особенно заметен среди менее опытных инженеров. Джуниоры чаще принимают предложения ИИ без глубокой проверки, из-за чего их показатели выглядят лучше в моменте. Однако именно этот код позже чаще всего возвращается на доработку, увеличивая технический долг и нагрузку на команду.
Сам термин «токенмаксинг» описывает управленческую ошибку — фокус на входных метриках вместо результата, считают эксперты. Аналогичная ситуация уже наблюдалась в индустрии десятилетия назад, когда продуктивность пытались измерять строками кода. Сегодня компании рискуют повторить ту же ошибку, заменив строки на токены.
Крупные игроки рынка уже реагируют на проблему. Так, Atlassian приобрела платформу DX за $1 миллиард, рассчитывая лучше отслеживать реальную отдачу от внедрения ИИ-инструментов.
В индустрии постепенно формируется новый консенсус: считать нужно не количество сгенерированного кода и не объем потраченных токенов, а долю изменений, которые остаются в основной ветке проекта спустя недели без переработки. Именно эта метрика позволяет оценить реальную продуктивность и понять, приносит ли ИИ пользу или лишь создает ее видимость.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.