J'utilise GridSearchCV comme ceci:sklearn GridSearchCV: comment obtenir un rapport de classification?
corpus = load_files('corpus')
with open('stopwords.txt', 'r') as f:
stop_words = [y for x in f.read().split('\n') for y in (x, x.title())]
x = corpus.data
y = corpus.target
pipeline = Pipeline([
('vec', CountVectorizer(stop_words=stop_words)),
('classifier', MultinomialNB())])
parameters = {'vec__ngram_range': [(1, 1), (1, 2)],
'classifier__alpha': [1e-2, 1e-3],
'classifier__fit_prior': [True, False]}
gs_clf = GridSearchCV(pipeline, parameters, n_jobs=-1, cv=5, scoring="f1", verbose=10)
gs_clf = gs_clf.fit(x, y)
joblib.dump(gs_clf.best_estimator_, 'MultinomialNB.pkl', compress=1)
Puis, dans un autre fichier, pour classer les nouveaux documents (non du corpus), je fais ceci:
classifier = joblib.load(filepath) # path to .pkl file
result = classifier.predict(tokenlist)
Ma question est: Où Je reçois les valeurs nécessaires pour le classification_report
?
Dans de nombreux autres exemples, je vois des gens diviser le corpus en ensemble de traing et en test. Cependant, puisque j'utilise GridSearchCV
avec kfold-cross-validation, je n'ai pas besoin de faire ça. Alors, comment puis-je obtenir ces valeurs de GridSearchCV
?
Juste une question, ne pas 'gs_clf.fit (x, y) 'return' Aucune'? – BallpointBen
@BallpointBen Pourquoi le ferais-je? x et y contiennent des données – user3813234