Sur chaque trame de mon application, je peux appeler timeGetTime() pour récupérer les millisecondes actuelles écoulées et soustraire la valeur de timeGetTime() de l'image précédente pour obtenir le temps entre les deux trames. Cependant, pour obtenir la fréquence d'images de l'application, je dois utiliser cette formule: fps = 1000/delay (ms). Ainsi, par exemple, si le délai était de 16 millisecondes, alors 1000/16 = 62,5 (stocké en mémoire sous 62). Alors disons que le retard est devenu 17 millisecondes, puis 1000-1017 = 58, et ainsi de suite:Déterminez le framerate en fonction du délai
1000/10 = 100
1000/11 = 90
1000/12 = 83
1000/13 = 76
1000/14 = 71
1000/15 = 66
1000/16 = 62
1000/17 = 58
1000/18 = 55
1000/19 = 52
1000/20 = 50
Comme vous pouvez le voir pour des instances consécutives pour le délai, il y a de gros écarts dans les fréquences d'images. Alors, comment les programmes comme FRAPS déterminent-ils le taux de trame des applications qui se situent entre ces valeurs (par exemple 51,53,54,56,57, etc.)?