2011-04-18 3 views
4

Quels sont les algorithmes impliqués dans la détection des gestes de l'utilisateur basés sur les mouvements du squelette? Ceux que je connais sont les suivants:Théorie de la reconnaissance de gestes Kinect

a) Modèles markov cachés. Vous définissez un certain nombre de paramètres pour le HMM tels que la position de la main, l'angle du coude, etc. pour alimenter votre HMM. Et puis passez un peu de temps à entraîner le système, à modifier les paramètres, jusqu'à ce qu'il puisse reconnaître vos gestes de manière suffisamment fiable. Je crois que c'est ainsi que les gestes Wii sont généralement faits. Bon exemple avec la kinect .

b) Connectez les points. Si vous avez un vocabulaire limité de gestes, vous pouvez configurer des sphères de collision le long du chemin que chaque main prend normalement. Vous pourriez faire échouer le geste s'ils ne suivent pas le chemin assez rapidement.

Les deux méthodes nécessiteraient probablement beaucoup de peaufinage pour obtenir le taux de succès/échec comme vous le souhaitez. Je me demande s'il y a d'autres approches que je ne connais pas et aussi quels sont les avantages de chacun d'entre eux.

+0

Étiez-vous capable d'atteindre ce que vous cherchiez? Je suis actuellement coincé dans le même problème, toute aide serait appréciée. Merci –

+0

Nous avons pu nous débrouiller avec la solution (b). En raison de la nature du projet, nous avions déjà des animations en 3D de chaque geste, donc nous avons écrit une application pour générer les 'points' basés sur cela (dans notre cas, nous avions seulement besoin de générer des points). Et nous ajustions à la main des choses comme la taille des points, l'espacement entre chaque point, le temps nécessaire pour maintenir chaque position, etc. Ce n'était pas parfait, mais cela a fait le travail pour nous. –

Répondre

Questions connexes