🇵🇱 Дедлайн по e-PIT всё ближе ⏳ Поддержите devby из уже уплаченных налогов 💙
Support us

DeepMind: ИИ не должен выполнять всё — иначе люди разучатся работать

Подразделение Google DeepMind представило исследование о том, как правильно распределять задачи между ИИ-агентами и людьми. По мнению авторов, по мере развития агентных систем прежние простые правила делегирования больше не работают.

Оставить комментарий
DeepMind: ИИ не должен выполнять всё — иначе люди разучатся работать

Подразделение Google DeepMind представило исследование о том, как правильно распределять задачи между ИИ-агентами и людьми. По мнению авторов, по мере развития агентных систем прежние простые правила делегирования больше не работают.

В исследовании ученые DeepMind описывают концепцию «интеллектуального делегирования» — это не просто передача задачи от одного исполнителя другому, а последовательность управленческих решений. Она включает разбивку работы на проверяемые подзадачи, формализацию границ автономии, закрепление ответственности и настройку механизмов доверия — независимо от того, взаимодействуют ли между собой человек и ИИ или несколько ИИ-агентов.

Ключевой принцип авторы называют contract-first decomposition. Делегировать можно только те задачи, результат которых можно объективно проверить. Если итог слишком субъективен, дорог или сложен для оценки, задачу нужно дополнительно декомпозировать до уровня формальной верификации. Для этого предлагается использовать смарт-контракты, криптографические инструменты, включая zero-knowledge proofs, а также прозрачные протоколы мониторинга.

Отдельное внимание уделено «парадоксу автоматизации». Если ИИ полностью берет на себя рутинные операции, люди постепенно теряют навыки, необходимые для вмешательства в критической ситуации. В итоге возникает уязвимая конструкция: человек формально несет ответственность, но уже не способен оценить и при необходимости скорректировать решение системы. В качестве меры предосторожности DeepMind предлагает сохранять «контролируемую неэффективность» — периодически поручать часть задач людям даже тогда, когда ИИ мог бы выполнить их быстрее и дешевле.

Авторы также предупреждают о риске «моральной деформации»: ситуации, когда человек включен в процесс лишь номинально, чтобы взять на себя юридическую ответственность за сбои, не имея реального контроля над системой. По их мнению, такие архитектуры недопустимы при проектировании агентных экосистем. Отдельный риск работы с ИИ-агентами — это «когнитивная монокультура»: если большинство агентов работают на одних и тех же базовых моделях, одна уязвимость способна парализовать всю систему.

Исследование также анализирует существующие протоколы взаимодействия агентов, включая MCP от Anthropic и A2A от Google. По оценке авторов, они пока не обеспечивают достаточного уровня тонкой авторизации, криптографической проверки результатов и распределения ответственности.

Вирусный отчёт о будущем ИИ-экономики напугал инвесторов и расколол экспертов
Вирусный отчёт о будущем ИИ-экономики напугал инвесторов и расколол экспертов
По теме
Вирусный отчёт о будущем ИИ-экономики напугал инвесторов и расколол экспертов
OpenClaw чуть не стёр всю почту директора по безопасности ИИ в Meta
OpenClaw чуть не стёр всю почту директора по безопасности ИИ в Meta
По теме
OpenClaw чуть не стёр всю почту директора по безопасности ИИ в Meta
ИИ-агенты прижились в софте но вне ИТ их почти нет — исследование
ИИ-агенты прижились в софте, но вне ИТ их почти нет — исследование
По теме
ИИ-агенты прижились в софте, но вне ИТ их почти нет — исследование
Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
Студенты уже начали менять специальности из-за ИИ, половина — задумывались
Студенты уже начали менять специальности из-за ИИ, половина — задумывались
Студенты уже начали менять специальности из-за ИИ, половина — задумывались
Главная ошибка CEO в работе с ИИ — мнение эксперта
Главная ошибка CEO в работе с ИИ — мнение эксперта
Главная ошибка CEO в работе с ИИ — мнение эксперта
«Это не карьерная лестница, а стена»: топ LinkedIn о будущем карьеры в эпоху ИИ
«Это не карьерная лестница, а стена»: топ LinkedIn о будущем карьеры в эпоху ИИ
«Это не карьерная лестница, а стена»: топ LinkedIn о будущем карьеры в эпоху ИИ
Slack обновили по-крупному — более 30 новых ИИ-функций
Slack обновили по-крупному — более 30 новых ИИ-функций
Slack обновили по-крупному — более 30 новых ИИ-функций
1 комментарий

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Комментариев пока нет.