Следующие 2 года решат всё: глава Anthropic написал эссе о будущем ИИ
Глава Anthropic Дарио Амодей призвал мировое сообщество «проснуться» и всерьез отнестись к рискам, связанным с быстрым развитием искусственного интеллекта. По его словам, человечество уже в ближайшие годы может столкнуться с технологиями «почти невообразимой мощности».
Глава Anthropic Дарио Амодей призвал мировое сообщество «проснуться» и всерьез отнестись к рискам, связанным с быстрым развитием искусственного интеллекта. По его словам, человечество уже в ближайшие годы может столкнуться с технологиями «почти невообразимой мощности».
Об этом Амодей написал в масштабном эссе объемом около 19 тысяч слов под названием The Adolescence of Technology. В тексте он сравнивает текущий этап развития ИИ с «технологическим взрослением», которое станет серьезным испытанием для человечества.
«Я считаю, что мы вступаем в неизбежный и турбулентный период перехода, который проверит, кем мы являемся как вид. Человечеству вот-вот будет вручена почти невообразимая власть, и совершенно не ясно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью, чтобы ею распоряжаться», — пишет Амодей.
По оценке главы Anthropic, появление «мощного ИИ» — систем, превосходящих лауреатов Нобелевской премии в таких областях, как биология, математика, программирование и инженерия, — может быть делом ближайших одного-двух лет. Такие модели смогут не только отвечать на вопросы, но и автономно выполнять сложные задачи, управлять роботами и проектировать физические системы.
Амодей считает, что риски связаны не только с гипотетическим «бунтом машин», но и с практическим применением ИИ людьми и государствами. Среди ключевых угроз он называет использование ИИ для создания биологического оружия, массовой слежки, пропаганды и концентрации власти в руках отдельных государств или корпораций.
Особое беспокойство у него вызывает снижение барьеров для опасных действий: по его словам, продвинутые модели могут «разорвать связь между способностями и мотивацией», позволяя отдельным злоумышленникам совершать разрушительные действия, которые раньше требовали уровня целых научных институтов.
«Мы уже значительно ближе к реальной опасности в 2026 году, чем были в 2023-м, когда дискуссия об экзистенциальных рисках ИИ только вышла в политическую повестку», — отмечает он.
При этом Амодей выступает против паники и «думеризма». Он настаивает на прагматичном подходе: развитии механизмов выравнивания ИИ, интерпретируемости моделей, прозрачности работы компаний и аккуратном, «хирургическом» регулировании со стороны государств. В частности, Anthropic делает ставку на так называемый Constitutional AI — обучение моделей на основе набора ценностей и принципов, а не жестких списков запретов.
Несмотря на мрачные сценарии, Амодей сохраняет осторожный оптимизм. По его словам, при решительных и продуманных действиях риски можно преодолеть, а в перспективе ИИ способен привести к «гораздо лучшему миру». Однако для этого, подчеркивает он, необходимо признать масштаб вызова. «Это серьезный цивилизационный тест. У нас нет времени его игнорировать», — резюмирует глава Anthropic.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.