J'essaie de comprendre comment faire une validation croisée de k-fold. J'espérais que quelqu'un pourrait me dire la différence entre mes deux déclarations imprimées. Ils me donnent des données très différentes et je pensais qu'ils seraient les mêmes.Dans cross_val_score, comment le paramètre cv est-il utilisé différemment?
##train is my training data,
##target is my target, my binary class.
dtc = DecisionTreeClassifier()
kf = KFold(n_splits=10)
print(cross_val_score(dtc, train, target, cv=kf, scoring='accuracy'))
print(cross_val_score(dtc, train, target, cv=10, scoring='accuracy'))