Selon les auteurs de 1, 2 et 3, Rappel est le pourcentage des éléments pertinents sélectionnés sur tous les éléments pertinents dans le référentiel, tandis que Precision est le pourcentage d'éléments pertinents parmi ceux sélectionnés par la requête.Rappel, le taux Rappel @ k et la précision dans la recommandation top-k
Par conséquent, en supposant utilisateur U obtient un top- k liste recommandée des articles, ils seraient quelque chose comme:
Rappel = (Relevant_Items_Recommended dans top- k) / (Relevant_Items)
Precision = (Relevant_Items_Recommended en feuilles supérieure k) / (k _Items_Recommended)
Jusqu'à que tout partiel est clair mais je ne comprends pas la différence entre eux et taux Recall @ k. Comment serait la formule pour calculer taux de rappel @ k?
Vous avez directement mis @K dans le calcul de la précision simple et du rappel pour évaluer la prédiction, ce qui peut prêter à confusion. La règle est simple - si vous essayez de mesurer uniquement la prédiction RATING - utilisez la précision et le rappel simples sur l'ensemble du résultat recommandé. Si vous êtes intéressé par la prédiction de mesure RANKING, alors vous êtes plus intéressé à savoir comment bien dire top-5 effectue (premier écran de carrousel de recommandation), puis top-10 (deuxième écran) et ainsi de suite. Parce que dans le second cas, vous êtes plus intéressé par la façon dont votre solution a ordonné l'ensemble des réponses - résultats classés. –
Merci beaucoup @ Bartłomiej Twardowski. Donc, juste je faisais ce taux @ k déjà? –
Oui, si vous êtes en train de tronquer au dessus de l'élément k et en calculant seulement p/r dessus. –