Выкарыстанне ШІ на працоўных месцах рэзка знізілася ў ЗША
Выкарыстанне штучнага інтэлекту на працоўных месцах нечакана знізілася, сведчаць новыя даныя Бюро перапісу насельніцтва ЗША.
Выкарыстанне штучнага інтэлекту на працоўных месцах нечакана знізілася, сведчаць новыя даныя Бюро перапісу насельніцтва ЗША.
Выкарыстанне штучнага інтэлекту на працоўных месцах нечакана знізілася, сведчаць новыя даныя Бюро перапісу насельніцтва ЗША.
Паводле ацэнкі The Economist, у кастрычніку доля работнікаў буйных кампаній, якія выкарыстоўваюць ШІ для стварэння тавараў і паслуг, склала толькі 11% — на адзін працэнтны пункт менш, чым двума тыднямі раней.
Падзенне адзначаецца і ў агульнай дынаміцы. У кампаніях колькасцю 100–249 супрацоўнікаў доля тых, хто не выкарыстоўваў ШІ ў апошнія два тыдні, вырасла з 74,1% у сакавіку да 81,4% восенню. Сярод карпарацый з колькасцю больш за 250 чалавек адказ «не» таксама павялічыўся — да 68,6% у параўнанні з мінімумам 62,4% у лютым.
Трэнд выклікае занепакоенасць на фоне планаў індустрыі інвеставаць каля $5 трыльёнаў у інфраструктуру ШІ да 2030 года. Рост даходаў ад карпаратыўнага і спажывецкага выкарыстання тэхналогій ШІ пакуль не апраўдвае чаканняў. Апытанні, на якія спасылаецца The Economist, паказваюць падобную карціну: ШІ застаецца хутчэй эксперыментальным інструментам, чым рэальным драйверам прадукцыйнасці.
Даследчыкі Стэнфарда, якія адсочваюць прымяненне генератыўнага ШІ, таксама фіксуюць зніжэнне: доля работнікаў, якія выкарыстоўваюць такія сістэмы, упала з 46% у чэрвені да 37% у верасні. Аналітыка фінтэх-кампаніі Ramp паказвае, што ўсплёск карпаратыўнай цікавасці да ШІ ў пачатку 2025 года змяніўся стагнацыяй.
Спад цікавасці адбываецца на фоне расчаравання ў новых мадэлях, уключаючы GPT-5, чые паляпшэнні аказаліся меншымі за чаканыя. Прыкметы «стомленасці ад ШІ» ў кампаніях пачалі з’яўляцца яшчэ ў канцы 2024 года: у апытанні EY палова топ-менеджэраў прызналася, што не спраўляецца з задачай укаранення ШІ.



Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.
Правильно. Вместо того, чтобы улучшать качество решения моделями задач, - улучшают «эмоциональное вовлечение». А тем временем опенсорс уже вполне догнал по качеству и стоит намного дешевле. Ну и усё. Скоро модели будет выгоднее на своём железе запустить для малых и средних фирм, чем платить охреневшие ценники, которые ломят на enterprise планах
Догнал в чем? Для использования в простых агентах - да, возможно. Для кодинга - по-моему, не очень. Я перепробовал Cline/Roo Code с большим количеством моделей - все выходило хуже, чем Sonnet. В этом году OpenAI и Google подтянулись и догнали Anthropic со своими codex, gemini-cli, anti-gravity. Там не только модели, но и оптимизация инструментов. Anti-gravity шустро переключается между кодом и браузером по многу раз. Cline уже каким-то старьем ощущается на этом фоне. Claude Code позволяет переключить его на любую модель - возможно комбо с GLM будет давать хорошие результаты. Но я не уверен, что это будет дешевле. Для компании, которая не использует ИИ в своих продуктах, хостить большую модель и скейлить на всех не очень-то просто. Плюс ее нужно интегрировать во все, тогда как приватные компании уже это сделали продают вместе с интеграцией в документы, джиру и пр. Лично мне эта интеграция не нужна, но я вижу, что менеджеры ее очень хотят.
Для большой - нет. Для малой или средней вполне возможно. Да, тот же GLM, вполне себе подойдёт. Качество там вполне себе нормальное и стоимость генерации. Ну, и дальше - это же предсказуемость расходов, пусть и с некоторыми потерями в потенциале масштабирования. Но да, независимость и предсказуемость, - это дорогое удовольствие. Хотя, у меня есть определённые надежды на DGX Spark - массив из 3-4 машинок вполне себе потянет малую компанию
Карыстальнік адрэдагаваў каментарый 4 снежня 2025, 21:51
Настоящая веселуха начнётся, когда вычислительных возможностей будет хватать для взращивания моделей уровня хотя бы GPT-3.5 в домашних условиях.
Дак уже можно. DGX Spark + GPT Oss:120b. Тот вроде даже до о4-mini дотягивает. Сам девайс $5к стоит.
Карыстальнік адрэдагаваў каментарый 5 снежня 2025, 00:19
только с денежной стороны смысла в этом никакого, учитывая насколько дешевы подписки.
Если речь только про рантайм, то сейчас много маленьких моделей до 30B, которые вполне на уровне GPT-3.5 и запускаются на домашних видюхах за $600-800. Все, что нужно, - это гигов 16 видеопамяти. Упомянутая выше Oss:120b не влезет, но ее младший брат Oss:20b - вполне. Эти маленькие модели хорошо разговаривают, могут работать с инструментами, поддаются расцензуриванию. Вполне неплохо, когда хочется собственный ИИ дома, который не скажет "нет" и не сольет логи.
я же поэтому и написал "с денежной". Для домашних нужд подписка 10-20 долл. в мес., а может и бесплатное сойдет. Это копейки, учитывая что собственная он-прем альтернатива еще и электричество жрет, и шумит. Ну и административный оверхед, хотя кому это в плюс, понятно.
Помню, как 3 года назад мне было грустно от мысли, что вот он - ИИ из книжек, - но доступ к нему контролируют большие компании. Сегодня есть, а завтра вжух - и подписки, цензура, Сэм Алтман читает мои чаты и подсовывает мне рекламу. И вот спустя какое-то время я могу скачать модель примерно того же уровня и запустить на собственном железе. И железо самое обычное - игровой комп, собранный 6 лет назад. В принципе, даже GPU не обязательно, но с ней намного быстрее.
И да, подписки выгоднее и лучше. Но хорошо иметь альтернативу на всякий случай. И приватность - вещь не лишняя. Пойди спроси у чата жпт, как чай с волшебными грибами заварить или торрент клиент настроить - хорошо, если ФБР не вызовет.
Да, и это прекрасно, я прям с первого дня влюбился в демократичность этой технологии.
Но будет ещё лучше, прямо совсем хорошо, когда в домашних условиях можно будет эти модели создавать, вот прямо с нуля. Технически и сейчас можно, но просто на практике пока за пределами здравого смысла.
Зависит от специфики проекта или продукта. Если стартап занимается хемиинформатикой, например, или ещё чем-то узкоспециализированным с высокой добавленной стоимостью - однозначно смысл есть. Или джуна на год нанять или два девайса купить (и это те же расходы). Если прогорел - всё расходимся, железо - остаётся. Если какой-нибудь гэмблинг или необанки, где очень любят всё на своем железе делать - тоже может иметь смысл. А ещё ведь модель можно зафайнтюнить под свою кодовую базу, что значительно улучшит её качество для решения задач в рамках конкретного продукта или проекта. Плюс, когда люди длительно работают с одной и той же моделью или семейством они начинают чувствовать её специфику - как лучше написать промпт, где можно меньше времени тратить времени на ревью кода, а где модель может допускать больше ошибок при генерации итп. Это тоже всё важные моменты. Я себе это представляю как выбор между "живой джун на год" или "вечный джун навсегда и платим только за первый год сразу".
это всяко не для домашних условий и к такой модели еще понадобится инженер, который знает как выжимать из нее максимум, стоящий далеко не как джун. Для корпоратов смысл, конечно, имеется (больше по причине всяких секьюрностей и прочих GDPR). Для дома - у меня большие сомнения.
Для дома в контексте разработки «на дядю» или для пет-проекта - смысла нет. Хотя, если человек занимается научной деятельностью и имеет коварный план … :)) А для мелких нужд и экспериментов , согласен, видюха за $1к и малые модели - выше крыши. Сейчас с одной такой идеей развлекаюсь just for fun - пытаюсь IoT домашний с Meshtastic совместить с маленькими моделями из семейства granite4 на локальном дешёвом железе. В Кракове у нас Meshtastic довольно развитое покрытие имеет, поэтому довольно занимательно получается. Без инета за сотню км можно управлять устройствами, может быть перспективно для сх в горной местности.
Карыстальнік адрэдагаваў каментарый 5 снежня 2025, 12:05
я так даже без gpu поразвлекался, на qwen-2.5 ) сделал бота в телеге, чтобы работал с подключенной базой данных - готовил запросы по описанию исходя из схемы со всякими проверками на вредность и т.п. Ну работает, прикольно, че. Временами даже простые joinы правильно пишет )
Согласен. На какие-то мелкие задачи вполне хватает даже 4b или 8b моделек и можно без GPU. Мне кажется, что манагеры из-за дефицита технических знаний захайпились на этих дорогих здоровенных моделях, хотя большинство задач можно решить просто тюнингом малых. Забивают гвозди микроскопом.
так с большими же проще, особенно когда не знаешь каким должен быть результат ) ни тебе обучать дополнительно, ни в рамки загонять - подключил и оно работает, можно на презентации показывать.