ChatGPT, это ты? Число новых вопросов на Stack Overflow упало на 77% после релиза чат-бота
Американский разработчик и СЕО Теодор Смит опубликовал данные по количеству новых вопросов, которые пользователи Stack Overflow задают на платформе. Примерно за два года с момента выхода ChatGPT их стало меньше более чем на три четверти.
Так, в марте 2023 года на Stack Overflow было размещено 87,1 тысячи новых вопросов. К марту 2024-го цифра сократилась до 58,8 тысячи, то есть на 32,5%. К июню 2024 года по сравнению с июнем 2023-го падение составило 34,8% (с 63,8 тысячи до 41,6 тысячи), а к декабрю 2024-го по сравнению с декабрём 2023-го — 40,2% (с 42,7 тысячи до 25,6 тысячи). С марта 2023-го к декабрю 2024-го число новых вопросов уменьшилось на 70,7%.
С ноября 2022 года, когда OpenAI выпустила ChatGPT, а на Stack Overflow было задано 108,6 тысячи новых вопросов, к минувшему декабрю их стало меньше на 83 тысячи, или на 76,5%.
Смит констатирует, что некогда популярный среди программистов источник знаний устарел и вымирает. Последний раз на Stack Overflow задавали так мало вопросов в мае 2009 года — через 10 месяцев после запуска. По прогнозам разработчика, сайту осталось жить меньше года.
С++, несмотря на свой солидный возраст, остается одним из основных языков программирования, который применется очень широко: от разработки ПО до создания игр. В сети много ресурсов, которые помогут освоить этот язык. Советуем обратить внимаение на подборку команды Digitaldefynd, котрую мы дополнили. В ней как платные, так и бесплатные ресурсы для людей с разным уровнем подготовки и знаний С++.
Disclaimer: I'm in the Top 1% of StackOverflow contributors with 23,315 rep points.
I asked 1 high-quality question in 2024, and it was closed almost immediately, and I haven't engaged with the site since.
If someone with 20,000+ karma has their nicely-formatted questions closed so quickly, what must the newbies and rank-in-file encounter? This is probably a big reason why it's declining.
Обидели мышку – написали в норку. И мышка не хочет так больше дружить. Сидит мышка в норке с вонючею коркой. И думает: «Стоит ли дальше так жить?»
Реальные текстовые данные уже давно закончились. И StackOverflow не может решить эту проблему - даже если все программисты мира бросятся активно спрашивать и отвечать. Все равно будет мало для создания следующего поколения монолитных моделей. Все сейчас генерируют синтетические данные своими большими моделями для создания маленьких. А маленькие генерируют "идеи" в составе "думающих" моделей. Или работают с ними в тандеме с использованием всяких техник вроде speculative decoding. И там пока потолка не нащупали. OpenAI использовала o1 модель для обучения o3, а o3 теперь обучает что-то следующее. Недавно их догнали Google и DeepSeek со своими "думающими" моделями, и всем стало ясно, что в эту сторону нужно копать и дальше. И нехватка данных никого не останавливает. Это похоже на переход процессоров от вертикального масштабирования к горизонтальному, чтобы обойти физические ограничения
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Лол. У него там драмочка:
Обидели мышку – написали в норку. И мышка не хочет так больше дружить. Сидит мышка в норке с вонючею коркой. И думает: «Стоит ли дальше так жить?»
... после чего ChatGPT будем не на чем учить 🫢
https://www.tomshardware.com/tech-industry/artificial-intelligence/stack-overflow-bans-users-en-masse-for-rebelling-against-openai-partnership-users-banned-for-deleting-answers-to-prevent-them-being-used-to-train-chatgpt особенно после того как там банили программистов возмущенных сделкой StackOverflow c OpenAI когда их продали Microsoft
Пользователь отредактировал комментарий 9 января 2025, 20:16
Реальные текстовые данные уже давно закончились. И StackOverflow не может решить эту проблему - даже если все программисты мира бросятся активно спрашивать и отвечать. Все равно будет мало для создания следующего поколения монолитных моделей. Все сейчас генерируют синтетические данные своими большими моделями для создания маленьких. А маленькие генерируют "идеи" в составе "думающих" моделей. Или работают с ними в тандеме с использованием всяких техник вроде speculative decoding. И там пока потолка не нащупали. OpenAI использовала o1 модель для обучения o3, а o3 теперь обучает что-то следующее. Недавно их догнали Google и DeepSeek со своими "думающими" моделями, и всем стало ясно, что в эту сторону нужно копать и дальше. И нехватка данных никого не останавливает. Это похоже на переход процессоров от вертикального масштабирования к горизонтальному, чтобы обойти физические ограничения
А в чём проблема перейти в полу-архивный режим типа ещё более старого code ranch (между прочим работающего с 1998 года)? Гордость не позволяет?