Nous savons par this article que terminer un test A/B tôt en raison de résultats «significatifs» est une erreur.Est-il acceptable de prolonger un test A/B non significatif?
Mais que se passe-t-il quand un test est exécuté pendant la période de temps souhaitée et affiche des résultats insignifiants - est-il bon de le prolonger? Quels sont les risques?
Ce serait génial avec un exemple mathématique simple de tous les risques, semblable à l'exemple de cet article lié.
Je n'ai qu'une connaissance de base de la théorie des probabilités et des mathématiques, j'apprécierais donc une réponse que je peux comprendre avec cette connaissance. Mon intuition est que cela pourrait être problématique, car avait une expérience avec une fiabilité calculée (montrera des faux positifs dans X% et des faux négatifs dans Y% de ces expériences), mais maintenant vous attendez indéfiniment pour le premier vrai positif ou signification faussement positive. Je devrais donc penser que vous obtenez plus de faux positifs que vous avez pris en compte lors de la configuration de l'expérience d'origine. Mais vraisemblablement, la probabilité de faux positifs diminue également à mesure que nous obtenons plus de données. J'aimerais avoir des chiffres précis là-dessus, si c'est vrai du tout.
(Inversé de http://stats.stackexchange.com/questions/269557/is-it-ok-to-prolong-a-non-significant-ab-test en raison d'un manque d'activité là-bas. pour supprimer cette question si quelqu'un pense que cela est inacceptable sinon.) –
Le message croisé a été marqué comme une copie de ceci: https://stats.stackexchange.com/questions/310119/why-does-collecting-data-until -obtenir-un-résultat-significatif-augmenter-le-type –