🇵🇱 Заполняете e-PIT? Оставьте 1,5% налога своим: поддержите devby (это бесплатно) 🤝
Support us

Автор вайб-кодинга представил nanochat — проект для обучения LLM за 4 часа и $100

Сооснователь OpenAI и автор термина «вайб-кодинг» Андрей Карпатый представил свой новый опенсорсный проект nanochat — он позволяет создать и обучить языковую модель буквально «с нуля».

1 комментарий

Сооснователь OpenAI и автор термина «вайб-кодинг» Андрей Карпатый представил свой новый опенсорсный проект nanochat — он позволяет создать и обучить языковую модель буквально «с нуля».

«Просто запускаете облачный GPU, выполняете один скрипт и уже через 4 часа можете разговаривать с собственной LLM в веб-интерфейсе, как у ChatGPT», — написал Карпатый в X.

Репозиторий nanochat содержит около 8 тысяч строк кода. В отличие от его прошлого проекта nanoGPT, который сосредоточен только на предобучении, новый охватывает весь цикл создания LLM, включая обучение токенизатора на Rust, предобучение модели-трансформера на датасете FineWeb, дообучение на диалогах и задачах с выбором ответа, файнтьюниинг, инференс и сбор метрик. Пользователь может взаимодействовать с моделью через командную строку или веб-интерфейс, а система автоматически создаёт отчёт о производительности.

Стоимость и масштаб можно варьировать: базовая версия, способная вести диалог, потребует $100 и 4 часа тренировки на 8×H100 GPU. После 12 часов тренировки модель превосходит бенчмарк GPT-2 CORE, а за $1000 и 42 часа можно получить версию, которая решает простые задачи по математике и программированию.

Карпатый хочет создать «сильный, минималистичный и максимально читаемый» базовый стек, который можно будет использовать как основу для обучения и исследований. nanochat может вырасти в полноценный исследовательский инструмент или бенчмарк, аналогичный nanoGPT, и стать новой точкой входа в мир LLM для разработчиков и студентов со всего мира.

Автор вайб-кодинга: софт переживает переломный момент
Автор вайб-кодинга: софт переживает переломный момент
По теме
Автор вайб-кодинга: софт переживает переломный момент
«Сам себя не похвалишь — никто не похвалит»: в DeepSeek придумали новый способ самообучения моделей
«Сам себя не похвалишь — никто не похвалит»: в DeepSeek придумали новый способ самообучения моделей
По теме
«Сам себя не похвалишь — никто не похвалит»: в DeepSeek придумали новый способ самообучения моделей
Поддержите редакцию 1,5% налога: бесплатно и за 5 минут

Как помочь, если вы в Польше

Читайте также
Meta купила Moltbook — вирусную соцсеть для ИИ-агентов
Meta купила Moltbook — вирусную соцсеть для ИИ-агентов
Meta купила Moltbook — вирусную соцсеть для ИИ-агентов
«Мозг плавится»: если использовать слишком много ИИ-инструментов сразу, продуктивность падает
«Мозг плавится»: если использовать слишком много ИИ-инструментов сразу, продуктивность падает
«Мозг плавится»: если использовать слишком много ИИ-инструментов сразу, продуктивность падает
В Кремниевой долине только и разговоров, что о новой плюшке: доступ к ИИ-мощностям
В Кремниевой долине только и разговоров, что о новой плюшке: доступ к ИИ-мощностям
В Кремниевой долине только и разговоров, что о новой плюшке: доступ к ИИ-мощностям
Microsoft запустила автономного Copilot Cowork на базе моделей Anthropic
Microsoft запустила автономного Copilot Cowork на базе моделей Anthropic
Microsoft запустила автономного Copilot Cowork на базе моделей Anthropic

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

table
table Table в Database
-1

АААСТАНАВИТЕСЬ!!!!!111