DeepMind: ИИ не должен выполнять всё — иначе люди разучатся работать
Подразделение Google DeepMind представило исследование о том, как правильно распределять задачи между ИИ-агентами и людьми. По мнению авторов, по мере развития агентных систем прежние простые правила делегирования больше не работают.
Подразделение Google DeepMind представило исследование о том, как правильно распределять задачи между ИИ-агентами и людьми. По мнению авторов, по мере развития агентных систем прежние простые правила делегирования больше не работают.
В исследовании ученые DeepMind описывают концепцию «интеллектуального делегирования» — это не просто передача задачи от одного исполнителя другому, а последовательность управленческих решений. Она включает разбивку работы на проверяемые подзадачи, формализацию границ автономии, закрепление ответственности и настройку механизмов доверия — независимо от того, взаимодействуют ли между собой человек и ИИ или несколько ИИ-агентов.
Ключевой принцип авторы называют contract-first decomposition. Делегировать можно только те задачи, результат которых можно объективно проверить. Если итог слишком субъективен, дорог или сложен для оценки, задачу нужно дополнительно декомпозировать до уровня формальной верификации. Для этого предлагается использовать смарт-контракты, криптографические инструменты, включая zero-knowledge proofs, а также прозрачные протоколы мониторинга.
Отдельное внимание уделено «парадоксу автоматизации». Если ИИ полностью берет на себя рутинные операции, люди постепенно теряют навыки, необходимые для вмешательства в критической ситуации. В итоге возникает уязвимая конструкция: человек формально несет ответственность, но уже не способен оценить и при необходимости скорректировать решение системы. В качестве меры предосторожности DeepMind предлагает сохранять «контролируемую неэффективность» — периодически поручать часть задач людям даже тогда, когда ИИ мог бы выполнить их быстрее и дешевле.
Авторы также предупреждают о риске «моральной деформации»: ситуации, когда человек включен в процесс лишь номинально, чтобы взять на себя юридическую ответственность за сбои, не имея реального контроля над системой. По их мнению, такие архитектуры недопустимы при проектировании агентных экосистем. Отдельный риск работы с ИИ-агентами — это «когнитивная монокультура»: если большинство агентов работают на одних и тех же базовых моделях, одна уязвимость способна парализовать всю систему.
Исследование также анализирует существующие протоколы взаимодействия агентов, включая MCP от Anthropic и A2A от Google. По оценке авторов, они пока не обеспечивают достаточного уровня тонкой авторизации, криптографической проверки результатов и распределения ответственности.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.