
IBM выпустила три опенсорсных инструментария на Python, которые позволяют уменьшить смещение в обучающих выборках и моделях машинного обучения, пишет Infoworld.
Инструменты, которые помогают повысить надёжность AI-систем, разработаны в рамках проекта Trusted AI. Исходный код всех трёх из них доступен на GitHub.
Инструментарий AI Explainability 360 содержит 8 алгоритмов, которые помогают лучше понять, как ML-модели предсказывают метки.
AI Fairness 360 включает 70 метрик для выявления смещений в датасетах и моделях, а также 10 алгоритмов для снижения этих смещений.
Adversarial Robustness Toolbox представляет собой Python-библиотеку, которая позволяет исследователям и разработчикам создавать средства защиты глубоких нейросетей от adversarial-атак.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.