2009-05-25 6 views
0

Disons que nous avons une moyenne d'une page défaillante toutes les 20 000 000 instructions, une instruction normale prend 2 nanosecondes, et une erreur de page entraîne l'instruction de prendre 10 millisecondes supplémentaires. Quel est le temps d'instruction moyen, en tenant compte des fautes de page?Temps d'instruction moyen

+0

ressemble à un devoir? – Aziz

+0

On dirait des devoirs pour moi. – Noldorin

+0

Quelqu'un avait besoin de poser cette question ici? Vraiment? –

Répondre

2

20000000 instructions, l'un d'entre eux d'erreur de page

Par conséquent, les instructions 20.000.000 prendront

(2 nanoseconds * 20,000,000) + 10 milliseconds 

obtenir le résultat (ce qui est le temps total pour 20.000.000 instructions), et le diviser par le nombre d'instructions pour obtenir le temps par instruction.

0

2,5 nanosecondes? Arithmétique assez simple, je suppose.

1

Quelle est la durée moyenne d'instruction, compte tenu des défauts de page?

La durée moyenne d'instruction est la durée totale, divisée par le nombre d'instructions. Donc, quel est le total temps pour 20 000 000 instructions?

0

Si 1 à 20.000.000 instructions provoque une erreur de page alors vous avez un taux de défaut de page:

Page Fault Rate = (1/20000000) 

Vous pouvez calculer votre temps moyen par instruction:

Average Time = (1 - Page Fault Rate) * 2 ns + (Page Fault Rate * 10 ms) 

Comes à 2,5 ns/instruction