2017-07-20 4 views
0

Nous avons deux produits P1 et P2. P1 possède un total de 1000 avis et p2 a 200 commentaires.Algorithme pour gérer la note positive s'il y a une énorme différence entre le nombre de commentaires

note positive de P1 est de 85% (85% des utilisateurs disent que c'est un bon produit) note positive de P2 est de 90% (90% des utilisateurs disent qu'il est un bon produit)

Maintenant, si nous voyons sur le plan technique P1 est meilleur que P2 parce que 850 utilisateurs disent que c'est un bon produit alors que seulement 180 utilisateurs disent que P2 est bon. Comment résoudre ce problème afin que nous puissions afficher un résultat juste? Si possible, partagez la logique ou l'algorithme.

+2

Ceci n'est pas une question technique. C'est une décision de logique métier qui doit être prise. Vous pourriez également faire valoir que P1 est * pire * que P2 parce que 150 personnes disent que ce n'est pas un bon produit alors que seulement 20 disent que P2 n'est pas bon. Le point entier de prendre des moyennes est que vous pouvez les comparer. Personnellement, je dirais qu'une approbation moyenne de 90% est meilleure qu'une approbation moyenne de 85%. Si les 90% provenaient seulement d'un utilisateur, je pourrais m'inquiéter de son importance, mais une fois que vous aurez atteint un nombre raisonnable, vous pourrez compter sur les moyennes. – Chris

+0

Si vous voulez vraiment vous soucier d'équilibrer le nombre de relecteurs, alors vous voudrez probablement aller sur l'un des autres sites de la pile qui traite des statistiques, où ils peuvent parler de la taille des échantillons et beaucoup plus en détail. Les sites de piles suivants peuvent être en mesure d'aider bien que je ne sois pas un utilisateur actif sur l'un d'eux, donc je ne peux pas dire si c'est plus sur le sujet là-bas qu'ici: https://stats.stackexchange.com, https://math.stackexchange.com/ – Chris

+0

Voir https://stats.stackexchange.com/questions/4756/confidence-interval-for-bernoulli-sampling –

Répondre

1

Vérifiez les intervalles de confiance sur wikipedia (link).

Fondamentalement, vous calculeriez avec une précision de 95% (ou quel niveau vous voulez) que la valeur réelle est entre +/- x de la moyenne que vous avez. Cela dépend du nombre de points de données, donc plus de critiques vous donneront un intervalle plus serré.

Ce que vous en faites, c'est à vous de décider. Vous pouvez être pessimiste et montrer la fin inférieure de l'intervalle tout en étant à 95% + sûr que c'est mieux que cela.

Si vous voulez comparer les deux, vous pouvez regarder le chevauchement entre les intervalles et conclure qu'ils sont à peu près les mêmes si le chevauchement est élevé. Etant donné que cette chose provient de statistiques, les garanties supposent certaines propriétés de la distribution, c'est-à-dire que P1 et P2 sont jugés de la même manière dans ce cas. Bien qu'ils ne soient pas toujours vrais, les intervalles de confiance ont tendance à être utiles.