Один из участников крупнейшего в Калифорнии хакатона TechCrunch Disrupt SF исследует язык тела пользователей и помогает улучшить качество публичных выступлений. О проекте Vocalytics рассказывает TechCrunch.
Стартап использует машинное обучение и даёт отзывы о языке тела спикера, анализируя видеозаписи выступлений. Система уже способна распознавать многие позы и положения рук, разработчики занимаются распознаванием движений глаз, мимики и других невербальных «знаков». Команда использовала набор данных Microsoft для обучения алгоритма, а также два инструмента от Facebook: фреймворк глубинного обучения Caffe и библиотеку React.js.
Конечная цель проекта Vocalytics — создать программу, способную давать обратную связь на уровне профессиональных тренеров.
Vocalytics не умеет анализировать речь, но зачастую именно лишние жесты отвлекают от того, что хочет донести спикер. Впрочем, чтобы закрыть этот пробел, авторы новинки совместно с Orai создали приложение для тренировки правильной артикуляции и произношения. Пока оно доступно лишь в iOS, но в скором времени появится и Android-версия. Кроме этого, на том же TechCrunch Disrupt SF представили проект SpeechCoach.ai, который также помогает избавиться от проблем с вербальной коммуникацией.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.