Позвольте мне объяснить мою потребность, прежде чем я объясню проблему. Я с нетерпением жду приложения с ручным управлением. Навигация с помощью ладони и щелчки с помощью захвата/кулака.
В настоящее время я работаю с Openni, который звучит многообещающе и имеет несколько примеров, которые оказались полезными в моем случае, поскольку он имеет встроенный трекер рук в образцах. который служит моей цели на данный момент.
Я хочу спросить,
1) как лучше всего иметь детектор кулака/хватки?
Я обучил и использовал кулачные классификаторы Adaboost для извлеченных данных RGB, которые были довольно хорошими, но у них слишком много ложных срабатываний, чтобы двигаться дальше.
Итак, здесь я формулирую еще два вопроса
2) Есть ли другая хорошая библиотека, способная удовлетворить мои потребности, используя данные о глубине?
3) Можем ли мы тренировать свои собственные жесты рук, особенно с использованием пальцев, поскольку в некоторых статьях упоминается HMM, если да, то как нам поступить с библиотекой, такой как OpenNI?
Да, я пытался использовать промежуточные библиотеки в OpenNI, такие как детектор захвата, но они не будут служить моей цели, поскольку они не являются открытым исходным кодом и не соответствуют моим потребностям.
Помимо того, что я спросил, если есть что-то, что, по вашему мнению, могло бы мне помочь, будет принято как хорошее предложение.