J'ai fait une application qui montre l'image de la caméra Kinect. J'ai aussi une méthode de reconnaissance vocale. J'essaie d'ajouter des fonctionnalités pour faire une action en fonction du geste de la main (ouvert/fermé). J'ai appris que le InteractionStream
peut me donner des informations à ce sujet.Kinect colorstream et le capteur échouent lorsque InteractionStream est allumé
J'ai essayé de l'implémenter, mais lorsque je lance l'application, le premier objectif de gauche ne fonctionne pas (je ne vois même pas la lumière rouge à partir de là, et il n'y a pas d'image sur l'écran).
Lorsque je commente tout le code connecté avec interactionStream
(mise en œuvre/envoi de cadres, etc.), l'appareil photo fonctionne correctement. La lumière brille et je peux voir mon visage triste.
Est-il possible que ces flux fonctionnent en même temps? Est-ce juste une limitation de la Kinect?