2017-10-06 3 views
-1

Dans les classificateurs KNN (K nearest neighbour), si une valeur paire de K est choisie, alors quelle serait la prédiction dans la règle de vote majoritaire ou dans la règle de distance euclidienne. Par exemple, s'il y a 3 classes disentQuelle serait la classe prédite de KNN pour une valeur paire de K et en cas d'égalité?

  1. Iris-setosa
  2. Iris versicolor-
  3. Iris-virginica

Et dire maintenant, nous avons la valeur de n_neighbors = 6. Il y a une bonne chance d'obtenir un résultat égal pour la règle de vote majoritaire? Dans la plupart des visualisations, cette région est représentée en blanc, indiquant qu'aucune décision n'a pu être prise. Mais quelle serait la prédiction réelle pour cravate. Ce problème est difficile à émuler et assez conceptuel, donc peut ne pas être simulé si facilement.

Est-ce qu'une valeur impaire de n_neighbors résout/réduit ce problème? Pensez-vous qu'au lieu d'utiliser le vote à la majorité simple, la distance euclidean/Manhattan permettrait de mieux gérer cela. Cependant sklearn docs ne mentionne pas cela du tout.

Répondre

-1

Étant donné que vous utilisez le vote majoritaire, une sélection de valeurs impaires pour les voisins les plus proches résout le problème lorsque, par exemple, deux étiquettes de classe obtiennent le même score.

+0

Il y a 3 étiquettes de classe et chacune a le même nombre de points –

+0

Néanmoins, vous devez utiliser un nombre impair de n_neighbors, disons n_neighbors = 5 (afin d'éviter l'égalité). Si vous ne voulez pas utiliser le vote majoritaire, essayez le vote inverse pondéré par la distance (https://en.wikipedia.org/wiki/Inverse_distance_weighting) après avoir normalisé votre distance Euclidienne ou Manhattan. – anasvaf