Читатели в 🇵🇱, пожалуйста, поддержите dev.by своими налогами! Это просто и ничего не стоит
Support us

Китайский стартап DeepSeek хакнул ИИ-рынок в США: дешевый конкурент «порвал» ChatGPT за один день

Китайская компания DeepSeek наделала шуму в ИИ-индустрии. Стартап выпустил бесплатный чат-бот, который обошел ChatGPT в нескольких тестах на умение рассуждать. Разбираемся, чем новинка угрожает американскому рынку.

31 комментарий
Китайский стартап DeepSeek хакнул ИИ-рынок в США: дешевый конкурент «порвал» ChatGPT за один день

Китайская компания DeepSeek наделала шуму в ИИ-индустрии. Стартап выпустил бесплатный чат-бот, который обошел ChatGPT в нескольких тестах на умение рассуждать. Разбираемся, чем новинка угрожает американскому рынку.

Что такое DeepSeek

Приложение DeepSeek-R1 стремительно стало самым популярным бесплатным приложением в App Store в США, Великобритании и Китае. Из-за ажиотажа пользователей фьючерсы на биржевом рынке начали стремительно снижаться. Больше всего пострадала Nvidia, акции которой упали почти на 18%. Рыночная капитализация компании из-за падения сократилась более чем на $600 миллиардов. Котировки одного из главных инвесторов в ИИ-индустрию SoftBank Group снизились более чем на 8%.

В основе помощника — модель DeepSeek-V3 с открытым исходным кодом. Разработчики утверждают, что модель была разработана всего за $6 миллионов. Это значительно меньше миллиардов долларов, потраченных на подобные разработки американских конкурентов. Тем не менее эксперты сомневаются, что китайским программистам удалось это сделать при столь скромном бюджете и на самом деле цифры намного больше.

DeepSeek R1 получил высокую оценку исследователей за его способность решать сложные задачи рассуждения, особенно в математике и кодировании. Модель использует подход «цепочки мыслей», аналогичный подходу модели OpenAI o1, что позволяет ей решать проблемы, обрабатывая запросы шаг за шагом. DeepSeek также выпустила шесть меньших версий R1, которые достаточно малы для локального запуска на ноутбуках.

Димитрис Папаилиопулос, главный научный сотрудник исследовательской лаборатории Microsoft AI Frontiers, говорит, что больше всего его удивила в R1 его инженерная простота. «DeepSeek был нацелен на точные ответы, а не на детализацию каждого логического шага, что значительно сократило время вычислений при сохранении высокого уровня эффективности», — добавил он.

Что известно о компании

О самой компании известно немного. Она была основана китайским миллиардером, управляющим инвестиционным фондом High-Flyer Лян Вэньфэном. Лян, который ранее сосредоточился на применении ИИ в инвестировании, купил «запас чипов Nvidia A100», экспорт которых теперь запрещен в Китай. Эти чипы стали основой DeepSeek, сообщило издание MIT Technology Review.

Фонд полностью финансирует Deepseek и не привлекает средства других инвесторов. Стартап привержен идее создания фундаментальных технологий, а не коммерческих приложений, поэтому команда разработчиков обязалась предоставлять открытый исходный код для всех своих моделей.

Некоторые эксперты высоко оценили работу DeepSeek, а известный технологический инвестор Марк Андрессен написал  в X: «DeepSeek R1 — один из самых удивительных и впечатляющих прорывов, которые я когда-либо видел, а с точки зрения открытого исходного кода — это ценный подарок миру». Дэвид Сакс, венчурный капиталист, назначенный Трампом для помощи в надзоре за политикой в ​​области ИИ и криптовалют, заявил в соцсетях, что приложение DeepSee «показывает, что гонка за ИИ будет очень конкурентной».

ИИ-пузырь все нагляднее

Популярность китайского конкурента опровергло мнение о неоспоримом лидерстве США в области искусственного интеллекта. DeepSeek утверждает, что его чат-бот использует более дешевые чипы и намного меньший пул данных, чем американское приложение. Выход модели R1 показал, что американские компании, такие как OpenAI, Meta и Anthropic, могут быстро потерять лидерство, не способные защитить свое техническое преимущество.

Успех DeepSeek еще более примечателен, учитывая ограничения, с которыми сталкиваются китайские ИИ-компании в виде ужесточения экспортного контроля США на передовые чипы. Но первые данные показывают, что эти меры не работают так, как предполагалось. Вместо того чтобы ослабить возможности Китая в области ИИ, санкции, по-видимому, побуждают стартапы, такие как DeepSeek, внедрять инновации.

«DeepSeek покорил рынок, сделав больше с меньшими усилиями», — написал в электронном письме Джузеппе Сетте, президент исследовательской компании по ИИ Reflexivity. «Это показывает, что в ближайшие несколько лет сюрпризы с ИИ будут продолжаться».

Можно тратить меньше

Теперь инвесторы сомневаются в том, что многомиллиардные вложения в создание мощных чипов, которые производят Nvidia и аналогичные компании, оправданы. Для сравнения, OpenAI, Google и другие крупные американские компании собираются инвестировать в ИИ в общей сложности около $1 триллиона в ближайшие годы, по данным Goldman Sachs. Китайское приложение может потенциально подорвать инвестиционное обоснование для всей цепочки поставок ИИ.

​​«Тот факт, что эта технология, как предполагается, потребляет меньше энергии и является более рентабельной, чем американские модели, очень беспокоит американских инвесторов в технологии», — сказал Джей Вудс, главный глобальный стратег Freedom Capital Markets. Трамп на фоне успеха DeepSeek заявил, что США введут пошлины на иностранные чипы для Китая.

Как отмечает Bloomberg, президент США пригрозил ввести пошлины на полупроводники через несколько часов после того, как рыночная капитализация производителя чипов Nvidia сократилась на фоне запуска DeepSeek. Издание отмечает: Трамп считает, что создание ИИ DeepSeek «должно стать тревожным сигналом» для американских компаний, которым следует сфокусироваться на конкуренции, «чтобы победить».

DeepSeek запустил ИИ-генератор изображений который превосходит OpenAI
DeepSeek запустил ИИ-генератор изображений, который превосходит OpenAI
По теме
DeepSeek запустил ИИ-генератор изображений, который превосходит OpenAI
Stargate — мегастартап США в cфере ИИ. Что о нем известно
Stargate — мегастартап США в сфере ИИ. Что о нем известно
По теме
Stargate — мегастартап США в сфере ИИ. Что о нем известно
Meta откажется от фактчекинга в соцсетях. Взамен появятся примечания пользователей
Meta откажется от фактчекинга в соцсетях. Взамен появятся примечания пользователей
По теме
Meta откажется от фактчекинга в соцсетях. Взамен появятся примечания пользователей
Читатели в 🇵🇱, пожалуйста, поддержите dev.by своими налогами!

Это просто и ничего не стоит

Читайте также
10+ сертификаций Coursera, которые могут изменить вашу карьеру
10+ сертификаций Coursera, которые могут изменить вашу карьеру
10+ сертификаций Coursera, которые могут изменить вашу карьеру
Бюджетный способ прокачать навыки и повысить зарплату — это профессиональный сертификат от Google, IBM или крупного зарубежного университета. На Coursera как раз можно найти десятки полезных обучающих программ по машинному обучению, проджект-менеджменту и не только. Собрали 10+ сертификаций, которые будут выигрышно смотреться в резюме как новичка, так и опытного специалиста.
Дизайн, VR и интернет вещей: 10 доступных онлайн-курсов от Google, Amazon и других гигантов
Дизайн, VR и интернет вещей: 10 доступных онлайн-курсов от Google, Amazon и других гигантов
Дизайн, VR и интернет вещей: 10 доступных онлайн-курсов от Google, Amazon и других гигантов
На платформе Coursera можно найти сотни курсов от крупных корпораций, включая Google, Amazon и HubSpot. Это отличная возможность начать новую карьеру, повысить квалификацию и просто получить плюс в профессиональную карму. Мы собрали 10 программ от ИТ-компаний, которые помогут освоить машинное обучение, UX-дизайн, продакт-менеджмент, кибербезопасность и многое другое.
Пять новых профессиональных сертификаций от Meta на Cousera
Пять новых профессиональных сертификаций от Meta на Cousera
Пять новых профессиональных сертификаций от Meta на Cousera
Meta расширяет свое партнерство с Coursera, предлагая пять новых профессиональных сертификаций в области разработки ПО. Во время растущего спроса на квалифицированные кадры получение этих сертификатов позволит претендовать на самые востребованные позиции. По прогнозам, только в США к 2030 году сфера разработки ПО вырастет на 22%.Новые программы от Meta предлагают подготовку по следующим специальностям: фронтенд-разработчик, бэкенд-разработчик, Android-разработчик, iOS-разработчик и дата-инженер.
4 комментария
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
5 комментариев

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

4

Попкорн в студию!

3

Ребята из DeepSeek молодны, выбили табуретку с монетизацией из под OpenAI, Gemini, и Claude.ai.
Во многом расходы на чипы, датацентры и АЭС для них обнулились.

fabulius 91
fabulius 91 CEO в Предприниматель в Польше
-2

Вся эта банда шарлатанов OpenAI, Gemini, Nvidia состязались кто выдумает более фееричные цифры, хотя я пока еще не сталкивался что бы кто то зарабатывал используя GenAI. Все что то пробуют, буксуют туда сюда уже третий год но дальше каких то RAG оберток на API дело не идет.

Пользователь отредактировал комментарий 28 января 2025, 16:58

-1

Идет, вы просто не хотите видеть. С вами компьютер разговаривает, понимает, что вы от него хотите, на кнопки может нажимать, в консоль и интернет ходить. По Сан-Франциско самоуправляемые машины ездят без водителей. Робо-собаки бегают по любым поверхностям. Много чего еще. Сами же писали, что DeepSeek на ноуте запускаете. Ну, так поставьте еще Cline поверх VSCode, дайте доступ к проекту и пару задач - будет ходить по всему дереву файлов, править нужное, дифы на ревью давать, сам в консоли компилировать, проверять на ошибки. Отлично работает, личный джун для тестов и всякой мелочи. C DeepSeek API это практически ничего не стоит. Но, конечно, сидеть и писать про пропаганду, распилы и шарлатанов веселее. Плюсики приносит.

0

Главное стоимость запросов к модели уровня GPT4 упала в сотни раз за последние 1.5-2 года.
Стоимость запросов к модели уровня o1 упала в разы.

1

О каком "уровня gpt4" два года назад вы говорите?

0

Чел не шарик особо, нахватался поверхам и выдаёт тут(

0

Хорошо, что есть, кому поправить.

Давайте я вам посчитаю. Релиз GPT-4 был 14 марта 2023 года. Это 689 дней от сегодня. Это 1,89 года. А потом будете обижаться, когда вас на ИИ заменят.

0

Немного шуганули, вот и все. Ничего прорывного и нового они не сделали.

povelitel-krasnogo-drakona
povelitel-krasnogo-drakona Проектный мессенджер в 我想排便
3

Сейчас подключится американская пропаганда )

Комментарий скрыт за нарушение правил комментирования.

Правила тут, их всего 5

0

Ну хз что тут удивительного. Обычный корм для пропаганды из рашки и РБ.
Когда китайцы начали производить дешевые машины, Айфоны и другую технику, то таких вбросов небыло. Так а здесь в чем разница? То что AI дешевле? Так если работа с ИИ подешевеет в таком объеме, кто первым пострадает, догадались? Бинго!))

Пользователь отредактировал комментарий 28 января 2025, 14:57

-1

Даже summary DeepSeek документации не удалось осилить?

-1

Ну давайте, расскажите что в документации есть такого что заставит меня думать что это и вправду прорыв.
То что они графики с еррор рейтами выкатили на гите. Ну молодцы, я не спорю. Меньше ресурсов? да. И что? А качество. Как прогнать тесты? А никак...) Потому что данных а открытом доступе просто нет)

Пользователь отредактировал комментарий 28 января 2025, 21:33

2

Вы видимо не поняли кого я намекнул. Если ИИ станет дешевым, от этого ОмЭрика и НАТО точно не загниют, а вот бот, которые получает по 15 копеек(или даже 15 рублей) за один комментарий, работу свою точно потеряет))

0

И что там такого необычного и прорывного? Кроме типа цены.

fabulius 91
fabulius 91 CEO в Предприниматель в Польше
-1

Уже там ядерные реакторы строят под дата центры и госзаказы на $500 млрд. А я тем временем под пивом опенсорс DeepSeek 8b запустил на своем ноуте за 10 минут и работает также хорошо как последний, супер навороченный ChatGPT-o1.

Это просто эпично как американский бигтех попался на попытке жестокого развода xD

0

Я тоже запустил. И 8b точно не так же хорошо работает как О1, увы. Большую версию не проверял, возможно она так же хороша как о1 и тогда зачёт. Но сравнивать 8b и o1 не серьёзно, всё-таки разные весовые категории.

1

У DeepSeek не было доступа к последним чипам, и дорогим мозгам, как у FAANG. А результат выше, совпадение?

zabelarus14
zabelarus14 Инженер в НИИ им. Баца
3

у интеграла вообще космический рывок скоро случится

Комментарий скрыт за нарушение правил комментирования.

Правила тут, их всего 5

0

Разве что прорыв дна очередной

0

Если Вы нахватались базовой инфы и не знаете, что разницы между обучить с 0 и переюзать уже обученную нейронку, то не умничали бы особо.

-2

Нет там никакого интеллекта - ни искусственного, ни настоящего - поэтому и рассуждений быть не может у этой штуки. Но есть математика, перцептроны и вероятности. По сути оно обходит индексы в БД на основе текстов написанных где-то и когда-то людьми. Не обновили индексы - получили устаревшие данные. Чем чаще встречалось слово, тем выше вероятность выпадения слова. T9 на стероидах. Поэтому эти штуки плохо справляются с узкоспециализированными предметами т.к. статей маловато будет.

0

Вот, что сам ДипСик по этому поводу думает:

«Нет интеллекта» — ИИ не обладает сознанием, но демонстрирует возникающие свойства (анализ контекста, логика), недоступные простым «базам данных».
Не «перцептроны» — Современные модели используют трансформеры с механизмами само-внимания, а не линейную математику перцептронов.
Не T9 — Генерация текста основана на семантике и синтаксисе, а не на частоте слов.
Узкие темы — Да, ограничения есть, но их смягчают дообучением на специфичных данных.
Итог: DeepSeek — не «разум», но и не продвинутый T9. Это сложная система, имитирующая рассуждения через анализ паттернов в данных, с гибкостью, но в рамках обучения.

Мне кажется, он обиделся. В вашей голове мысли тоже не искра божественная зажигает. Те же нейроны, дизайн посложнее, токены более абстрактные, программный луп навороченнее, но в сущности все то же самое. ДипСик еще и обучался сам путем проб и ошибок. Чату ЖПТ и прочим истины вдалбливали, а этот сам их вывел на основе правил.

-1

https://sites.google.com/view/elizaarchaeology/try-eliza (1966 год, 420 строк) примерно так же "осмысленные" ответы выдает🫢 просто переиспользуя слова

Люди не знают как функционирует интеллект поэтому воспроизвести не могут.

На одном онлайн курсе нужно было создать простейшую программу анализирующую частотность слов в тексте чтобы случайным образом по нему сгенерировать текст. Иногда это выглядит даже как осмысленное сообщение... потому что я его так интерпретировал. Но той игрушке не хватало объемов данных и учета частотности предыдущих слов.

В БД хранятся связи слов что очевидно. Не в вакууме же:)

Нейронные сети основаны на концепции перцептрона.

https://habr.com/ru/articles/491576/ "Так или иначе все нейросетевые архитектуры строят представления входных данных в виде векторов, которые "кодируют" полезные статистические и семантические свойства этих данных." Предзаписанные значения.

"Таким образом, построенные признаки для данного слова — просто сумма линейных преобразований признаков всех слов, взвешенных этой "важностью"."

"Наконец, авторы предлагают ещё один фокус, чтобы справиться с проблемой масштабирования: значения на каждой позиции преобразовывают двухслойным перцептроном с особой структурой." Перцептрон😄

https://gos24.kz/article/t9-na-steroidakh-kak-rabotaet-chatgpt-obiasnenie-dlia-chainikov T9 на стероидах. Мне запомнилось это сравнение. Принцип тот же.

"По сути, генерируя каждое следующее слово, модель выбирает его случайно. При этом учитывая, что вероятность выпадения разных слов должны примерно соответствовать тем вероятностям, которые подсказывают зашитые внутрь модели уравнения. А они выводятся при обучении ИИ на огромном массиве текстов. Получается, что одна и та же модель даже на абсолютно одинаковые запросы может давать совершенно разные варианты ответа — прямо как живой человек." Который найдет в сгенерированном тексте смысл🤷‍♂️

Пользователь отредактировал комментарий 29 января 2025, 08:00

0

Но ведь оно работает. Какая мне разница, настоящий там интеллект или муляж? Хотите называть БД - ну, называйте. Вы не один такой - это адекватное упрощение. Я даю этой БД задачу, и она ее выполняет. Задачу не просто написать хайку про программирование, а посмотреть в один сервис, затем в другой, затем вот в эти примеры тестов и написать новый тест на вон тот кусок непокрытой функциональности. И эта БД берет и пишет. Планирует сначала, потом идет по плану - это не один запрос. Когда нужно, может обратиться к файловой системе, сходить в интернет, что-то запустить в консоли. Принимает фитбек в любой момент, не спорит, но говорит, когда я не прав. Никак иначе, кроме как пониманием я это называть не могу.

Вам не нравится название, вы требуете, чтобы ИИ переименовали во что-то, где не фигурирует слово "интеллект"? Я не против. Искуственная бестолочь тоже годится.

Откуда в вас самих интеллект берется? Мысли? Сознание? Слыхали про термин "философский зомби" или "китайская команта"? Как мне понять, что вы тоже не муляж? Чем вы отличаетесь от БД? Текст вы генерите почти одинаковый.

Еще на википедии у слова " intelligence" по меньшей мере 8 определений: https://en.wikipedia.org/wiki/Intelligence То есть, как бы, существует широта взглядов и разница мнений. Поэтому решает практика, а не философские разглагольствования о том, может ли линейная алгебра создать разум. А кучка молекул углерода может создать жизнь?

Пользователь отредактировал комментарий 29 января 2025, 10:35

1

Увы, чтобы производить сознание не нужно понимать как оно устроено. Вы и я - живые и наглядные примеры. Я не исключаю, что породить сознание искусственно можно. Но пока то что я вижу далеко от того, что мы обычно подразумеваем под сознанием.

0

"ДипСик еще и обучался сам путем проб и ошибок." Где Вы это вычитали, про САМ? Путем проб и ошибок, это и есть как бы обучение нормальное.
А чего ж Вы уже тогда не пишите, что он обучался через те же ЖПТ и прочих уже обученных нейронках??

0

В их научной бумаге. Под "сам" я понимаю обучение с покреплением без учителя (reinforcement learning), До сих пор никому не удавалось применить его к LLM. У всех стандартная комба после pre-training фазы - fine+tunning и RLHF (обучение с учителем, где учитель - это reward model и/или человек). Это дорого, сложно и медленно. И это не от хорошей жизни - применить RL к тексту сложно. Но это лучшее, что есть в AI. Любая задача решаема, если только найти правильную reward function. Ребята из DeepSeek нашли. У них там много разных новых оптимизаций, которые тоже интересны. Но RL - это главное, это то, почему их работу называют прорывом.

Чат ЖПТ, возможно, помогал генерировать данные для этого самого RL. И в этом нет ничего необычного - все так делают. Но обычно все собственные модели используют. Хотя кто их знает - практика показывает, что проще читерить и потом извиняться, чем сразу играть по правилам. OpenAI ищет формальные поводы для суда. Но это никак не отменяет достижений команды DeepSeek. Их подход с RL и остальные оптимизации скоро переипользуют все.

Пользователь отредактировал комментарий 30 января 2025, 18:59

fabulius 91
fabulius 91 CEO в Предприниматель в Польше
-1

Все так. Насколько помню этапы то шло примерно так ANN -> RNN -> LSTM -> Transformers -> LLM