Contexte:bonne façon d'estimer l'erreur de test d'un modèle optimisé
Selon le flux de travail recommandé par Muller « Introduction à l'apprentissage machine avec python », on ferait une seule évaluation de score sur un ensemble de test qui a été laissé de côté au début du processus:
Ceci a l'avantage d'obtenir un modèle donné avec ses hyperparam'etres définies, sur la validation croisée imbriquée qui pourrait utiliser des modèles multiples (différents).
L'évaluation sur un seul ensemble de test donne un estimateur qui présente une variance élevée.
La question:
Est-il possible d'obtenir une meilleure estimation d'erreur de généralisation que ce score unique? (même si cette méthode nécessite plus d'itérations de formation)