2011-01-08 2 views
4

Je comprends comment fonctionne k-nearest-neighbors (KNN), mais je ne connais pas le terme «soft-voting». Qu'est-ce que le vote souple par rapport à KNN et comment cela fonctionne par rapport au vote KNN standard? Un exemple simple comparant les deux schémas de vote serait utile et un lien vers une implémentation de Matlab serait un bon bonus.Qu'est-ce que le vote à la carte dans KNN?

Merci

Josh

+1

Essayez de poster cette question dans le [stats.SE] (http://stats.stackexchange.com/) – csgillespie

Répondre

2

Après quelques lectures, j'ai découvert que le vote doux met simplement une gaussienne à chacun des points (exemples de formation) qui sont soumises au vote.

Habituellement, nous votons simplement pour les exemples d'apprentissage qui sont les plus proches dans l'espace des caractéristiques, habituellement en ajoutant un aux votes du (des) voisin (s) le (s) plus proche (s). Au lieu de cela, le vote en douceur utilise simplement la probabilité gaussienne de tous les exemples d'entraînement comme score de vote, et accumule les votes respectifs en fonction de chaque score. Cela fournit simplement un schéma de vote plus robuste car il est plus conscient des distances relatives, en particulier dans les espaces de plus grande dimension.

Pour plus de détails, se référer à Mitchell et al. Schéma de vote «soft» de K-plus proche voisin, 2001.

Pour un exemple d'où il a été utilisé, voir Agarwal et al. Récupération de la posture humaine 3D à partir d'images monoculaires, 2005

Questions connexes