J'utilise la bibliothèque scikit-learn
pour python pour un problème de classification. J'ai utilisé RandomForestClassifier
et un SVM (classe SVC). Cependant, alors que la RF atteint environ 66% de précision et 68% de rappel, le SVM n'atteint que 45% chacun.SVM de mauvaises performances par rapport à Random Forest
J'ai fait un GridSearch
pour les paramètres C et gamma pour le RBF-SVM et également considéré comme mise à l'échelle et la normalisation à l'avance. Cependant, je pense que l'écart entre RF et SVM est encore trop important. Que dois-je envisager de mieux pour obtenir une performance SVM adéquate?
Je pensais qu'il devrait être possible d'obtenir au moins des résultats égaux. (Tous les scores sont obtenus par validation croisée sur les mêmes ensembles de test et d'entraînement.)
Pourquoi pensez-vous que cela devrait aussi bien fonctionner? – EdChum
Eh bien, je pensais que l'espace modèle du SVM et du RF devrait être plus ou moins similaire et donc il devrait y avoir des modèles similaires donnant des résultats similaires ... –
Il n'y a aucune garantie que la performance entre les 2 modèles sera la même , le fait que vous ayez essayé d'optimiser les params et effectué la mise à l'échelle et la normalisation ne garantit pas qu'ils devraient tous les deux fonctionner aussi bien. Vous pouvez essayer le [exemple] (http://scikit-learn.org/stable/auto_examples/plot_classifier_comparison.html) sur votre ensemble de données et voir par vous-même, vous trouverez finalement qu'il n'y a pas de règle absolue ou de garantie que tout le modèle sera ** toujours ** le meilleur – EdChum