2010-06-23 6 views
5

Je veux coder certaines applications pour utiliser les gestes de l'écran tactile. Quelle est la dernière technologie disponible?Quelle est la dernière nouveauté en programmation à écran tactile?

Quelles fonctionnalités fournissent aux API? S'agit-il simplement de la fonctionnalité de sélection et de clic occasionnels ou bien les gestes avancés sont-ils également exposés via l'API? Est-il possible d'étendre les API pour coder mes propres gestes?

Je ne peux pas organiser immédiatement un périphérique à écran tactile. Est-il possible de faire du codage maintenant et de tester mon code en utilisant un émulateur à l'écran avec ma souris? Plus tard pour des tests approfondis, je vais obtenir un appareil à écran tactile réel.

Je suis ouvert aux plateformes Linux et Windows.

Souhaite également explorer à la fois les ordinateurs de bureau (PC et ordinateurs portables) et les plates-formes mobiles (smartphones) avec un plus grand stress sur le premier. Desktop parce que la puissance de calcul disponible est élevée et ne veut pas être embourbée avec des problèmes liés au mobile au début.

Répondre

6

Windows 7 Mulit-Touch possède des API pour le toucher et les gestes. Les gestes sont extensibles. (Voir http://msdn.microsoft.com/en-us/library/dd371406(v=VS.85).aspx). La boîte à outils de surface pour Windows Touch Bêta (http://www.microsoft.com/downloads/details.aspx?familyid=801907A7-B2DD-4E63-9FF3-8A2E63932A74&displaylang=en) offre des contrôles multitouch supplémentaires qui ont été introduits avec Microsoft Surface.

Enfin, le projet CodePlex "Multitouch Vista" vous permet de simuler multitouch sur un ordinateur normal en utilisant 2 souris (http://multitouchvista.codeplex.com/). Il faut un peu de doigté pour se mettre au travail, mais ça marche bien sous Winodws 7, 32bit et 64bit.

Espérons que cela aide!

Questions connexes