Так как пена релиза GPT-5 улеглась, а потом начались и обратные разговоры о том, что AI hit the wall, можно поиграть в визионера и поговорить о светлом будущем. Думаю, партия умеренного оптимизма побеждает в своих прогнозах.
Кто пишет: Арсений Кравченко, пишет про software engineering и machine learning, автор тг-канала partially unsupervised.

Для начала разметим спектр отношений к AI:
-
с одной стороны — неолуддиты и скептики, утверждающие про пузырь, стохастических попугаев, умный автокомплит, «не умеющих считать r в strawberry» и всё такое;
-
с другой стороны — адепты AGI к 2027 году и прочие свидетели сверхинтеллекта на видеокартах; туда же — паникёры из секты, призывающей бомбить дата-центры, пока этот мифический AGI не начнёт максимизировать скрепки и пожирать всех человеков.
Как типичный центрист (слизняк без мнения) считаю, что обе крайности заблуждаются.
Окей, судя по последним инкрементальным релизам от всех крупных вендоров, LLM перешли к этапу мелких улучшений.
Давайте представим, что фундаментальных прорывов больше не будет, а все талантливые ресерчеры наконец-то уйдут из корпораций пасти гусей. И что?
-
То, как агенты сейчас применяются в software, уже сильно повысило продуктивность. Не только в кодогенерации, но и в смежных областях: UX-прототипы, анализ логов, дебаггинг. Там ещё много сырого, и проникновение невысокое за пределами пузыря, но по вайбам — это повышение продуктивности на десятки процентов.
-
Аналогично агенты будут проникать и во все остальные white-collar индустрии. То, что я видел одним глазом за пределами чисто софтверного мира, скорее подтверждает это. Для этого придётся написать очень много софта, устроить миллионы демок, сотни тысяч пилотных проектов и десятки тысяч интеграций. Неизбежны миллиарды откатов и тысячи увольнений.
-
Хотя опенсорс-модели всё ещё отстают от SOTA-решений, они уже в целом юзабельные. Anecdotal: на внутреннем бенчмарке я вполне вижу 80% качества за 20% денег опенроутеру (вместо 100% антропику) — старик Парето бы порадовался. Даже если вдруг у топ-вендоров случится картельный сговор, госрегуляции и железный занавес, на существующих open weights-технологиях можно делать полезное.
-
Если волшебные улучшения foundation-моделей закончатся, нам, простым работягам, будет даже лучше: нужно делать умный domain-specific scaffolding и закидывать test-time компьютом — желательно не совсем брутфорсом.
Иными словами: 🐂 bullish на тему вертикальных стартапов в сложных индустриях, интеграторов и инфраструктуры, 🐻 bearish на тему обещаний AGI за $7T, неолуддитов и API врапперов по подписке.
Мнение автора может не совпадать с позицией редакции.
Что ещё почитать про AI и LLM:
- «Задумайтесь, как понравиться роботам». Сергей Осипов рассуждает, как ИИ изменит интернет;
- Почему ИИ не заменит человека при найме — мнение руководителя рекрутинговой компании;
- «Вряд ли уцелеют какие-то профессии». Айтишник с 30+ опытом показывает, как ИИ заберёт у нас работу.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
"В 4 раза быстрее, в 10 раз больше уязвимостей: Apiiro оценила эффекты помощников для написания кода" https://habr.com/ru/news/944680/ сколько времени это потом будет переписываться и исправляться? поспешишь - людей насмешишь
https://24tv.ua/tech/ru/ispolzovanie-ii-v-biznese-padaet-chto-govorjat-poslednie-dannye-i-prognozy-tehno_n2910647
"После значительного скачка корпоративное использование искусственного интеллекта в США начало снижаться, что ставит под сомнение большие инвестиции и прогнозы.
Использование ИИ в крупных компаниях уменьшилось с 14% в июне до менее чем 12% в августе.
95% американских компаний, которые внедрили ИИ, сообщили, что программное обеспечение не принесло им нового дохода." мужики то и не знали :)
Все это, возможно, потому, что внедрить ИИ можно хорошо, а можно плохо. В моей компании, например, активно внедряют гугловые ИИ, включая их инструменты для кодинга - Gemini Code assist и gemini-cli. Было большое внутреннее исследование, где сравнивались разные решения и gemini code assist все победил. Проблема в том, что это плохой инструмент. Стоит дать ему задачу, где нужно править несколько файлов в проекте, как он непременно свалится с ошибкой. Слак канал саппорта с представителями Гугла полон жалоб. Хорошие инструменты (вроде Claude Code или хотя бы Cursor) в исследование почему-то не попали. Да и вцелом, если почитать отчет, там какие-то совсем не те метрики выбора инструментов. Получается, наши топы купились на громкое имя Гугла и презентации, а своих вайбкодеров спросить забыли. Похожие истории у всех моих знакомых. У кого-то Cody внедрили, у кого-то Devin AI - хорошие сэйлсы продают AI мусор, а менеджеры рисуют фейковые метрики.
Ну, и все эти проценты роста продуктивности часто вызывают сомнение. Никто никогда не говорит, как именно замеряет эту самую продуктивность. Количество уязвимостей - тоже мутная метрика. Взял старую версию библиотеки - и вот у тебя сотни уязвимостей. Обновил - и ты чемпион по их закрытию. Прибыль - показатель получше, но опять же - это точно ИИ виноват?