Google выпустила два опенсорсных инструмента для фреймворка TensorFlow: TensorFlow Privacy, который упрощает тренировку моделей машинного обучения и исследования МО при обеспечении конфиденциальности данных, а также TensorFlow Federated, который упрощает МО на распределённых датасетах, сообщает VentureBeat.
TensorFlow Privacy позволяет сохранить анонимность данных при использовании искусственным интеллектом. Он основан на «дифференциальной приватности»: благодаря ей функция Smart Reply в Gmail предугадывает, что напишет пользователь, на основе данных, собранных из электронных писем — но вместе с тем обеспечивается конфиденциальность уникальной информации, по которой можно идентифицировать пользователя. Искусственный интеллект учится только по распространённым паттернам: «умным ответом» становится то, что печатают в Gmail тысячи людей, но конфиденциальные данные никогда не появятся в подсказках у постороннего пользователя.
Google надеется, что релиз TensorFlow Privacy позволит разработчикам добавить этот метод защиты в другие инструменты на базе машинного обучения — или даже улучшить его. Компания утверждает, что использовать его будет достаточно просто: потребуется лишь сделать «несколько простых изменений кода» и настроить гиперпараметры. Исходный код инструмента доступен на GitHub, научную работу можно посмотреть здесь.
Google анонсировала ещё один модуль для своего фреймворка: TensorFlow Federated (TFF). Его цель — облегчить экспериментирование с МО и другими вычислениями на децентрализованных данных благодаря такому подходу, как «федеративное машинное обучение» (federated learning).
TFF позволяет разработчикам развёртывать и тренировать ИИ-системы на данных различных распределённых источников локально, а результаты вычислений агрегирует центральный сервер. Релиз библиотеки, утверждают авторы, сделает технологию доступной большему количеству разработчиков.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.