Исследователи Uber описали генеративно-состязательные нейросети Generative Teaching Network (GTN), которые порождают данные и среды обучения для более быстрой тренировки AI-моделей, пишет VentureBeat.
По словам разработчиков, GTN-ы помогают вплоть до 9 раз ускорить процесс поиска нейронной архитектуры по сравнению с подходами, в которых применяются только данные, подготовленные человеком. Кроме того, они сопоставимы с самыми продвинутыми техниками, но не требуют таких огромных вычислений и быстрее оценивают каждую из архитектур.
Модели, обученные с помощью GTN, достигли точности 98,9% на датасете MNIST за 32 шага обучения (около 0,5 секунды). В эксперименте с датасетом CIFAR-10 модели обучались в 4 раза быстрее, чем на реальных данных, при той же производительности.
Исследователи считают, что GTN помогут Uber, а также другим компаниям и учёным повысить эффективность глубокого обучения в любой сфере, где применима эта технология.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.