Répondre

1

Vous pouvez lire cette page sur sklearn: adaboost. Personnellement, je aime empiler XGboost, GBM, et ExtraTree comme forêt d'arbres décisionnels modèles de base et les empiler pour obtenir meilleur score auc.

+0

Si vous voulez empiler ou mélanger plusieurs estimateurs de base, vous pouvez consulter ce module sur github: [généralisation empilés] (https://github.com/andreashsieh/stacked_generalization). Ce module a été développé par dustinstansbury et j'ai fait un patch pour que le code fonctionne mieux. –

+0

J'utilise AdaBoost pour la régression, donc ce module peut ne pas me aider – modkzs

+0

@AndreasHsieh: comment vous situez-vous des algorithmes différents? – Alex