Дапамажыце dev.by 🤍
Падтрымаць

Кітайскі стартап DeepSeek хакнуў АІ-рынак у ЗША: танны канкурэнт «парваў» ChatGPT за адзін дзень

Кітайская кампанія DeepSeek нарабіла шуму ў АІ-індустрыі. Стартап выпусціў бясплатны чат-бот, які абышоў ChatGPT у некалькіх тэстах на ўменне разважаць. Разбіраемся, чым навінка пагражае амерыканскаму рынку.

31 каментарый
Кітайскі стартап DeepSeek хакнуў АІ-рынак у ЗША: танны канкурэнт «парваў» ChatGPT за адзін дзень

Кітайская кампанія DeepSeek нарабіла шуму ў АІ-індустрыі. Стартап выпусціў бясплатны чат-бот, які абышоў ChatGPT у некалькіх тэстах на ўменне разважаць. Разбіраемся, чым навінка пагражае амерыканскаму рынку.

Што такое DeepSeek

Праграма DeepSeek R1 імкліва стала самай папулярнай бясплатнай праграмай у App Store у ЗША, Вялікабрытаніі і Кітаі. Праз ажыятаж карыстальнікаў ф’ючарсы на біржавым рынку пачалі імкліва зніжацца. Больш за ўсё пацярпела Nvidia, акцыі якой упалі амаль на 18%. Рынкавая капіталізацыя кампаніі праз падзенне скарацілася больш чым на $600 мільярдаў. Каціроўкі аднаго з галоўных інвестараў у АІ-індустрыю SoftBank Group знізіліся больш чым на 8%.

У аснове памочніка — мадэль DeepSeek-V3 з адкрытым зыходным кодам. Распрацоўшчыкі сцвярджаюць, што мадэль была распрацаваная ўсяго за $6 мільёнаў. Гэта значна менш за мільярды долараў, выдаткаваных на падобныя распрацоўкі амерыканскіх канкурэнтаў. Тым не менш эксперты сумняваюцца, што ў кітайскіх праграмістаў атрымалася гэта зрабіць пры такім сціплым бюджэце і насамрэч лічбы нашмат большыя.

DeepSeek R1 атрымаў высокую ацэнку даследчыкаў за яго здольнасць вырашаць складаныя задачы разважання, асабліва ў матэматыцы і кадаванні. Мадэль выкарыстоўвае падыход «ланцужка думак», аналагічны падыходу мадэлі OpenAI o1, што дазваляе ёй вырашаць праблемы, апрацоўваючы запыты крок за крокам. DeepSeek таксама выпусціла шэсць меншых версій R1, дастаткова малых для лакальнага запуску на ноўтбуках.

Дзімітрыс Папаіліопулас, галоўны навуковы супрацоўнік даследчай лабараторыі Microsoft AI Frontiers, кажа, што больш за ўсё яго здзівіла ў R1 яго інжынерная прастата. «DeepSeek быў накіраваны на дакладныя адказы, а не дэталізацыю кожнага лагічнага кроку, што значна скараціла час вылічэнняў пры захаванні высокага ўзроўню эфектыўнасці», — дадаў ён.

Што вядома пра кампанію

Пра самую кампаніі вядома няшмат. Яна была заснаваная кітайскім мільярдэрам, які кіруе інвестыцыйным фондам High-Flyer Лян Вэньфэнам. Лян, які раней засяродзіўся на ўжыванні АІ у інвеставанні, купіў «запас чыпаў Nvidia A100», экспарт якіх цяпер забаронены ў Кітай. Гэтыя чыпы сталі асновай DeepSeek, паведаміла выданне MIT Technology Review.

Фонд цалкам фінансуе Deepseek і не прыцягвае сродкаў іншых інвестараў. Стартап адданы ідэі стварэння фундаментальных тэхналогій, а не камерцыйных праграм, таму каманда распрацоўшчыкаў абавязалася даваць адкрыты зыходны код для ўсіх сваіх мадэляў.

Некаторыя эксперты высока ацанілі працу DeepSeek, а вядомы тэхналагічны інвестар Марк Андрэсен напісаў у X: «DeepSeek R1 — адзін з самых дзіўных і ўражальных прарываў, якія я хоць калі бачыў, а з пункта гледжання адкрытага зыходнага кода — гэта каштоўны падарунак свету». Дэвід Сакс, венчурны капіталіст, прызначаны Трампам для дапамогі ў наглядзе за палітыкай у галіне АІ і крыптавалют, заявіў у сацсетках, што праграма DeepSeek «паказвае, што гонка за АІ будзе вельмі канкурэнтнай».

АІ-бурбалка ўсё навочнейшая

Папулярнасць кітайскага канкурэнта абвергла меркаванне пра бясспрэчнае лідэрства ЗША ў галіне штучнага інтэлекту. DeepSeek сцвярджае, што яго чат-бот выкарыстоўвае таннейшыя чыпы і нашмат меншы пул даных за амерыканскую праграму. Выхад мадэлі R1 паказаў, што амерыканскія кампаніі, такія як OpenAI, Meta і Anthropic, могуць хутка страціць лідарства і не здольныя абараніць сваю тэхнічную перавагу.

Поспех DeepSeek яшчэ больш характэрны, улічваючы абмежаванні, з якімі сутыкаюцца кітайскія АІ-кампаніі ў выглядзе пастражэння экспартнага кантролю ЗША на перадавыя чыпы. Але першыя даныя паказваюць, што гэтыя меры не працуюць так, як меркавалася. Замест таго, каб аслабіць магчымасці Кітая ў галіне АІ, санкцыі, відаць, падахвочваюць стартапы, такія як DeepSeek, укараняць інавацыі.

«DeepSeek заваяваў рынак, зрабіўшы больш з меншымі намаганнямі», — напісаў у электронным лісце Джузэпэ Сетэ, прэзідэнт даследчай кампаніі па АІ Reflexivity. «Гэта паказвае, што найбліжэйшыя некалькі гадоў сюрпрызы з АІ будуць працягвацца».

Можна выдаткоўваць менш

Цяпер інвестары сумняваюцца ў тым, што шматмільярдныя ўкладанні ў стварэнне магутных чыпаў, якія вырабляюць Nvidia і аналагічныя кампаніі, апраўданыя. Для параўнання: OpenAI, Google і іншыя буйныя амерыканскія кампаніі збіраюцца інвеставаць у АІ агулам каля $1 трыльёна найбліжэйшымі гадамі, паводле даных Goldman Sachs. Кітайская праграма можа патэнцыйна падарваць інвестыцыйнае абгрунтаванне для ўсяго ланцужка паставак АІ.

«Той факт, што гэтая тэхналогія, як мяркуецца, спажывае менш энергіі і з’яўляецца рэнтабельнейшай за амерыканскія мадэлі, вельмі турбуе амерыканскіх інвестараў у тэхналогіі», — сказаў Джэй Вудс, галоўны глабальны стратэг Freedom Capital Markets. Трамп на фоне поспеху DeepSeek заявіў, што ЗША ўвядуць мыты на замежныя чыпы для Кітая.

Як адзначае Bloomberg, прэзідэнт ЗША прыгразіў увесці мыты на паўправаднікі праз некалькі гадзін пасля таго, як рынкавая капіталізацыя вытворцы чыпаў Nvidia скарацілася на фоне запуску DeepSeek. Выданне адзначае: Трамп мяркуе, што стварэнне АІ DeepSeek «мае стаць трывожным сігналам» для амерыканскіх кампаній, якім варта сфакусавацца на канкурэнцыі, «каб перамагчы».

DeepSeek запусціў AI-генератар выяў які пераўзыходзіць OpenAI
DeepSeek запусціў AI-генератар выяў, які пераўзыходзіць OpenAI
Па тэме
DeepSeek запусціў AI-генератар выяў, які пераўзыходзіць OpenAI
Stargate — мегастартап США в cфере ИИ. Что о нем известно
Stargate — мегастартап США в сфере ИИ. Что о нем известно
По теме
Stargate — мегастартап США в сфере ИИ. Что о нем известно
Meta адмовіцца ад фактчэкінгу ў сацсетках. Наўзамен зявяцца заўвагі карыстальнікаў
Meta адмовіцца ад фактчэкінгу ў сацсетках. Наўзамен з’явяцца заўвагі карыстальнікаў
Па тэме
Meta адмовіцца ад фактчэкінгу ў сацсетках. Наўзамен з’явяцца заўвагі карыстальнікаў

Хочаце паведаміць важную навіну? Пішыце ў Telegram-бот

Галоўныя падзеі і карысныя спасылкі ў нашым Telegram-канале

Абмеркаванне
Каментуйце без абмежаванняў

Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.

4

Попкорн в студию!

3

Ребята из DeepSeek молодны, выбили табуретку с монетизацией из под OpenAI, Gemini, и Claude.ai.
Во многом расходы на чипы, датацентры и АЭС для них обнулились.

fabulius 91
fabulius 91 CEO в Предприниматель в Польше
-2

Вся эта банда шарлатанов OpenAI, Gemini, Nvidia состязались кто выдумает более фееричные цифры, хотя я пока еще не сталкивался что бы кто то зарабатывал используя GenAI. Все что то пробуют, буксуют туда сюда уже третий год но дальше каких то RAG оберток на API дело не идет.

Карыстальнік адрэдагаваў каментарый 28 студзеня 2025, 16:58

-1

Идет, вы просто не хотите видеть. С вами компьютер разговаривает, понимает, что вы от него хотите, на кнопки может нажимать, в консоль и интернет ходить. По Сан-Франциско самоуправляемые машины ездят без водителей. Робо-собаки бегают по любым поверхностям. Много чего еще. Сами же писали, что DeepSeek на ноуте запускаете. Ну, так поставьте еще Cline поверх VSCode, дайте доступ к проекту и пару задач - будет ходить по всему дереву файлов, править нужное, дифы на ревью давать, сам в консоли компилировать, проверять на ошибки. Отлично работает, личный джун для тестов и всякой мелочи. C DeepSeek API это практически ничего не стоит. Но, конечно, сидеть и писать про пропаганду, распилы и шарлатанов веселее. Плюсики приносит.

0

Главное стоимость запросов к модели уровня GPT4 упала в сотни раз за последние 1.5-2 года.
Стоимость запросов к модели уровня o1 упала в разы.

1

О каком "уровня gpt4" два года назад вы говорите?

0

Чел не шарик особо, нахватался поверхам и выдаёт тут(

0

Хорошо, что есть, кому поправить.

Давайте я вам посчитаю. Релиз GPT-4 был 14 марта 2023 года. Это 689 дней от сегодня. Это 1,89 года. А потом будете обижаться, когда вас на ИИ заменят.

0

Немного шуганули, вот и все. Ничего прорывного и нового они не сделали.

povelitel-krasnogo-drakona
povelitel-krasnogo-drakona Проектный мессенджер в 我想排便
3

Сейчас подключится американская пропаганда )

Каментарый скрыты за парушэнне правілаў каментавання.

Правила тут, их всего 5

0

Ну хз что тут удивительного. Обычный корм для пропаганды из рашки и РБ.
Когда китайцы начали производить дешевые машины, Айфоны и другую технику, то таких вбросов небыло. Так а здесь в чем разница? То что AI дешевле? Так если работа с ИИ подешевеет в таком объеме, кто первым пострадает, догадались? Бинго!))

Карыстальнік адрэдагаваў каментарый 28 студзеня 2025, 14:57

-1

Даже summary DeepSeek документации не удалось осилить?

-1

Ну давайте, расскажите что в документации есть такого что заставит меня думать что это и вправду прорыв.
То что они графики с еррор рейтами выкатили на гите. Ну молодцы, я не спорю. Меньше ресурсов? да. И что? А качество. Как прогнать тесты? А никак...) Потому что данных а открытом доступе просто нет)

Карыстальнік адрэдагаваў каментарый 28 студзеня 2025, 21:33

2

Вы видимо не поняли кого я намекнул. Если ИИ станет дешевым, от этого ОмЭрика и НАТО точно не загниют, а вот бот, которые получает по 15 копеек(или даже 15 рублей) за один комментарий, работу свою точно потеряет))

0

И что там такого необычного и прорывного? Кроме типа цены.

fabulius 91
fabulius 91 CEO в Предприниматель в Польше
-1

Уже там ядерные реакторы строят под дата центры и госзаказы на $500 млрд. А я тем временем под пивом опенсорс DeepSeek 8b запустил на своем ноуте за 10 минут и работает также хорошо как последний, супер навороченный ChatGPT-o1.

Это просто эпично как американский бигтех попался на попытке жестокого развода xD

0

Я тоже запустил. И 8b точно не так же хорошо работает как О1, увы. Большую версию не проверял, возможно она так же хороша как о1 и тогда зачёт. Но сравнивать 8b и o1 не серьёзно, всё-таки разные весовые категории.

1

У DeepSeek не было доступа к последним чипам, и дорогим мозгам, как у FAANG. А результат выше, совпадение?

zabelarus14
zabelarus14 Инженер в НИИ им. Баца
3

у интеграла вообще космический рывок скоро случится

Каментарый скрыты за парушэнне правілаў каментавання.

Правила тут, их всего 5

0

Разве что прорыв дна очередной

0

Если Вы нахватались базовой инфы и не знаете, что разницы между обучить с 0 и переюзать уже обученную нейронку, то не умничали бы особо.

Anonymous
Anonymous
-2

Нет там никакого интеллекта - ни искусственного, ни настоящего - поэтому и рассуждений быть не может у этой штуки. Но есть математика, перцептроны и вероятности. По сути оно обходит индексы в БД на основе текстов написанных где-то и когда-то людьми. Не обновили индексы - получили устаревшие данные. Чем чаще встречалось слово, тем выше вероятность выпадения слова. T9 на стероидах. Поэтому эти штуки плохо справляются с узкоспециализированными предметами т.к. статей маловато будет.

0

Вот, что сам ДипСик по этому поводу думает:

«Нет интеллекта» — ИИ не обладает сознанием, но демонстрирует возникающие свойства (анализ контекста, логика), недоступные простым «базам данных».
Не «перцептроны» — Современные модели используют трансформеры с механизмами само-внимания, а не линейную математику перцептронов.
Не T9 — Генерация текста основана на семантике и синтаксисе, а не на частоте слов.
Узкие темы — Да, ограничения есть, но их смягчают дообучением на специфичных данных.
Итог: DeepSeek — не «разум», но и не продвинутый T9. Это сложная система, имитирующая рассуждения через анализ паттернов в данных, с гибкостью, но в рамках обучения.

Мне кажется, он обиделся. В вашей голове мысли тоже не искра божественная зажигает. Те же нейроны, дизайн посложнее, токены более абстрактные, программный луп навороченнее, но в сущности все то же самое. ДипСик еще и обучался сам путем проб и ошибок. Чату ЖПТ и прочим истины вдалбливали, а этот сам их вывел на основе правил.

Anonymous
Anonymous
-1

https://sites.google.com/view/elizaarchaeology/try-eliza (1966 год, 420 строк) примерно так же "осмысленные" ответы выдает🫢 просто переиспользуя слова

Люди не знают как функционирует интеллект поэтому воспроизвести не могут.

На одном онлайн курсе нужно было создать простейшую программу анализирующую частотность слов в тексте чтобы случайным образом по нему сгенерировать текст. Иногда это выглядит даже как осмысленное сообщение... потому что я его так интерпретировал. Но той игрушке не хватало объемов данных и учета частотности предыдущих слов.

В БД хранятся связи слов что очевидно. Не в вакууме же:)

Нейронные сети основаны на концепции перцептрона.

https://habr.com/ru/articles/491576/ "Так или иначе все нейросетевые архитектуры строят представления входных данных в виде векторов, которые "кодируют" полезные статистические и семантические свойства этих данных." Предзаписанные значения.

"Таким образом, построенные признаки для данного слова — просто сумма линейных преобразований признаков всех слов, взвешенных этой "важностью"."

"Наконец, авторы предлагают ещё один фокус, чтобы справиться с проблемой масштабирования: значения на каждой позиции преобразовывают двухслойным перцептроном с особой структурой." Перцептрон😄

https://gos24.kz/article/t9-na-steroidakh-kak-rabotaet-chatgpt-obiasnenie-dlia-chainikov T9 на стероидах. Мне запомнилось это сравнение. Принцип тот же.

"По сути, генерируя каждое следующее слово, модель выбирает его случайно. При этом учитывая, что вероятность выпадения разных слов должны примерно соответствовать тем вероятностям, которые подсказывают зашитые внутрь модели уравнения. А они выводятся при обучении ИИ на огромном массиве текстов. Получается, что одна и та же модель даже на абсолютно одинаковые запросы может давать совершенно разные варианты ответа — прямо как живой человек." Который найдет в сгенерированном тексте смысл🤷‍♂️

Карыстальнік адрэдагаваў каментарый 29 студзеня 2025, 08:00

0

Но ведь оно работает. Какая мне разница, настоящий там интеллект или муляж? Хотите называть БД - ну, называйте. Вы не один такой - это адекватное упрощение. Я даю этой БД задачу, и она ее выполняет. Задачу не просто написать хайку про программирование, а посмотреть в один сервис, затем в другой, затем вот в эти примеры тестов и написать новый тест на вон тот кусок непокрытой функциональности. И эта БД берет и пишет. Планирует сначала, потом идет по плану - это не один запрос. Когда нужно, может обратиться к файловой системе, сходить в интернет, что-то запустить в консоли. Принимает фитбек в любой момент, не спорит, но говорит, когда я не прав. Никак иначе, кроме как пониманием я это называть не могу.

Вам не нравится название, вы требуете, чтобы ИИ переименовали во что-то, где не фигурирует слово "интеллект"? Я не против. Искуственная бестолочь тоже годится.

Откуда в вас самих интеллект берется? Мысли? Сознание? Слыхали про термин "философский зомби" или "китайская команта"? Как мне понять, что вы тоже не муляж? Чем вы отличаетесь от БД? Текст вы генерите почти одинаковый.

Еще на википедии у слова " intelligence" по меньшей мере 8 определений: https://en.wikipedia.org/wiki/Intelligence То есть, как бы, существует широта взглядов и разница мнений. Поэтому решает практика, а не философские разглагольствования о том, может ли линейная алгебра создать разум. А кучка молекул углерода может создать жизнь?

Карыстальнік адрэдагаваў каментарый 29 студзеня 2025, 10:35

1

Увы, чтобы производить сознание не нужно понимать как оно устроено. Вы и я - живые и наглядные примеры. Я не исключаю, что породить сознание искусственно можно. Но пока то что я вижу далеко от того, что мы обычно подразумеваем под сознанием.

0

"ДипСик еще и обучался сам путем проб и ошибок." Где Вы это вычитали, про САМ? Путем проб и ошибок, это и есть как бы обучение нормальное.
А чего ж Вы уже тогда не пишите, что он обучался через те же ЖПТ и прочих уже обученных нейронках??

0

В их научной бумаге. Под "сам" я понимаю обучение с покреплением без учителя (reinforcement learning), До сих пор никому не удавалось применить его к LLM. У всех стандартная комба после pre-training фазы - fine+tunning и RLHF (обучение с учителем, где учитель - это reward model и/или человек). Это дорого, сложно и медленно. И это не от хорошей жизни - применить RL к тексту сложно. Но это лучшее, что есть в AI. Любая задача решаема, если только найти правильную reward function. Ребята из DeepSeek нашли. У них там много разных новых оптимизаций, которые тоже интересны. Но RL - это главное, это то, почему их работу называют прорывом.

Чат ЖПТ, возможно, помогал генерировать данные для этого самого RL. И в этом нет ничего необычного - все так делают. Но обычно все собственные модели используют. Хотя кто их знает - практика показывает, что проще читерить и потом извиняться, чем сразу играть по правилам. OpenAI ищет формальные поводы для суда. Но это никак не отменяет достижений команды DeepSeek. Их подход с RL и остальные оптимизации скоро переипользуют все.

Карыстальнік адрэдагаваў каментарый 30 студзеня 2025, 18:59

fabulius 91
fabulius 91 CEO в Предприниматель в Польше
-1

Все так. Насколько помню этапы то шло примерно так ANN -> RNN -> LSTM -> Transformers -> LLM