Анонсирован проект Skeltrack, в рамках которого развивается свободная библиотека для отслеживания в режиме реального времени перемещения скелета человека перед камерой с датчиком глубины. Библиотека позволяет в наборе изменяющихся изображений выделить и отследить перемещение контрольных точек, сопоставленных с конечностями и головой человека. Таким образом, появляется возможность распознания естественных движений и их использования в качестве управляющих жестов или для отождествления человека перед камерой с движениями персонажа игрового приложения.

Skeltrack использует набор математических алгоритмов и эвристических методов для реконструкции человеческого скелета, не требует проведения калибровки положения человека и не использует дополнительных баз данных с описанием возможных поз. В настоящее время библиотека поддерживает отслеживание только одного человека и может контролировать движение 7 контрольных точек (голова, плечи, локти, кисти рук). Оценить возможности Skeltrack можно на данной видеодемонстрации.

Библиотека не зависит от типа устройств, но наиболее доступным в настоящее время устройством с датчиком глубины является Microsoft Kinect, для которого Skeltrack может использоваться в сочетании с открытой библиотекой GFreenct. GFreenct является GObject-обвязкой для открытой кроссплатформенной библиотеки libfreenect, развиваемой сообществом OpenKinect и позволяющей организовать приём видеопотока с данными глубины от камеры Kinect.

Код библиотеки Skeltrack распространяется под лицензией LGPLv3. Это первый открытый проект, решающий задачу отслеживания скелета для Kinect. До этого предлагалось использовать либо проприетарный пакет Microsoft Kinect SDK, либо полуоткрытый фреймворк OpenNI. Проблема OpenNI состоит в том, что полностью открытым является лишь базовый каркас фреймворка, в то время как все дополнительные компоненты, в которых непосредственно реализована необходимая функциональность, поставляются под лицензией не допускающей модификацию кода и его использование в сторонних продуктах.

Источник: http://www.opennet.ru/opennews/art.shtml?num=33437