У разработчиков резко упало доверие к ИИ-ассистентам — Stack Overflow
Stack Overflow выпустил результаты опроса разработчиков, в котором в 2025 году участвовало почти 50 тысяч человек из 177 стран. Как оказалось, пользователи ИИ-инструментов для кодинга стали более избирательны и меньше доверяют им.
Stack Overflow выпустил результаты опроса разработчиков, в котором в 2025 году участвовало почти 50 тысяч человек из 177 стран. Как оказалось, пользователи ИИ-инструментов для кодинга стали более избирательны и меньше доверяют им.
Лишь 33% респондентов доверяют ответам, которые выдают им ИИ-инструменты. В 2024 году на точность таких ассистентов полагались 43% опрошенных. Доля разработчиков, которые положительно относятся к интеграции ИИ-помощников в рабочие процессы, снизилась с 72% в прошлом году до 60% в этом.
Падение на 10 п. п. по обоим пунктам удивило даже авторов исследования, потому что аудитория ИИ-инструментов растёт. Если год назад их использовали или планировали использовать 76% разработчиков, то теперь — 84%. Больше половины (51%) пользуются ими ежедневно.
Рост распространения ИИ-помощников с параллельным ростом недовольства ими связывают с тем, что период хайпа закончился — пользователи стали реалистично оценивать возможности и ограничения ИИ-инструментов и более разумно их используют. Также в Stack Overflow отмечают, что когда ИИ-инструменты применяются для каких-то общих задач людьми, которые знают, что именно ищут, то пользовательский опыт и удовлетворённость ответами ниже. «Эффективность использования ИИ зависит от того, насколько хорошо пользователь понимает его сильные и слабые стороны и знает, когда и как его применить», — подчеркнули исследователи.
"Одно из самых частых обвинений в мой адрес — это то, что я против инноваций. Если вы следите за мной какое-то время, то наверняка видели, как я погружаюсь во всё: от криптовалют до больших языковых моделей. Это часто приводит к тому, что люди задаются вопросом: «Почему кто-то настолько технарь, настолько против технологий?»"
"Причина, по которой я не погружаюсь с головой во всё, что связано с ИИ, заключается не в том, что я его боюсь или не понимаю, а в том, что я уже давно пришёл к определённому выводу об этой технологии. Я не считаю её совершенно бесполезной или революционной, просто игра, в которую я сейчас играю, мне не нужна и в которой я не хочу участвовать."
...
"Всякий раз, когда я критикую что-либо из GenAI, мне неизменно задают один и тот же вопрос: «Как вы думаете, каждый крупный генеральный директор может ошибаться?»
Ответ: да. История полна примеров, когда гиганты индустрии сходили с ума, теряли больше денег, чем ВВП целой страны, говорили: «Лол, моя вина», а затем находили себе другое занятие."
Пользователь отредактировал комментарий 7 августа 2025, 15:10
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
каждый раз "специальная" лотерея
https://malwaretech.com/2025/08/every-reason-why-i-hate-ai.html
"Все причины, по которым я ненавижу ИИ, и вам тоже стоит это сделать"
"Одно из самых частых обвинений в мой адрес — это то, что я против инноваций. Если вы следите за мной какое-то время, то наверняка видели, как я погружаюсь во всё: от криптовалют до больших языковых моделей. Это часто приводит к тому, что люди задаются вопросом: «Почему кто-то настолько технарь, настолько против технологий?»"
"Причина, по которой я не погружаюсь с головой во всё, что связано с ИИ, заключается не в том, что я его боюсь или не понимаю, а в том, что я уже давно пришёл к определённому выводу об этой технологии. Я не считаю её совершенно бесполезной или революционной, просто игра, в которую я сейчас играю, мне не нужна и в которой я не хочу участвовать."
...
"Всякий раз, когда я критикую что-либо из GenAI, мне неизменно задают один и тот же вопрос: «Как вы думаете, каждый крупный генеральный директор может ошибаться?»
Ответ: да. История полна примеров, когда гиганты индустрии сходили с ума, теряли больше денег, чем ВВП целой страны, говорили: «Лол, моя вина», а затем находили себе другое занятие."
Пользователь отредактировал комментарий 7 августа 2025, 15:10