2017-03-22 2 views
0

Lorsque j'utilise count:poisson au lieu de rmse, je vois des valeurs nloglikelihood. Maintenant je ne sais pas comment comparer ces nombres avec rmse ou mae. Certainement moins la valeur mieux .. mais n'obtenant pas d'intuition erreur réelle que nous obtenons avec rmse ou Mae.Intuition derrière la valeur nloglikelihood dans xgboost poisson run

Par exemple ->train-poisson-nloglik:2.01885 val-poisson-nloglik:2.02898

Ici peut-on dire, les valeurs réelles diffèrent par 2,02 erreur. Quelqu'un peut-il expliquer avec un petit exemple. Merci.

Répondre

0

Il y a un bon poste sur le calcul de la valeur here

Pour être plus exhaustive, la valeur est:

mean(factorial(label) + preds - label*log(preds)) 

Si vous comparez avec la vraie formule du log-vraisemblance négative , il devrait être le sum au lieu du mean. Je suppose qu'ils choisissent de prendre la moyenne pour que le train et les valeurs d'essai soient plus comparables. Enfin, pour répondre à la question, la probabilité est la probabilité que les données proviennent de la distribution avec un paramètre spécifique. Dans le modèle de Poisson, les paramètres ne sont que l'ensemble des prédictions. Donc, meilleure est votre prédiction, plus la probabilité est grande, plus petite est la log-vraisemblance négative associée.

rmse ou mae sont basées sur l'espérance de la différence entre la prédiction et la vérité tandis que la log-vraisemblance négative regarde une probabilité.