2016-05-10 1 views
-1

J'ai une image 5576x9444 et je vais écrire un code parallélisé qui prendra 6 jours comme un maximum à exécuter complètement sur cette image sur un ordinateur avec la configuration suivante:Puis-je calculer le temps qu'il faudrait consacrer à l'exécution de mon code sur un pixel?

  • RAM: 12
  • CPU: fréquence Corei7 3GHz
  • graphique: GeoForce 8400 gs

Mon code est un code qui est le même pour chaque pixel et il doit être exécuté sur chaque pixel.
Y a-t-il un moyen de gagner du temps sur un seul pixel? (au moins approximativement)

+1

Eh bien, pas plus de 10 millisecondes par pixel (pas de magie ici, juste la division). Mais cela ne signifie pas que le benchmark sur 1 pixel doit être inférieur à ce seuil, ce qui serait une mesure de latence quand il s'agit vraiment de débit. – harold

+0

@harold en fait j'ai fait cette division et je veux voir si cette division est juste? Je vais ajouter une image à ma question. – sepideh

Répondre

0

Utiliser le sous-échantillonnage de l'image par différents facteurs .... et ensuite voir si le temps d'exécution total est exactement proportionnel au nombre de pixels dans l'image échantillonnée vers le bas. Ensuite, vous pouvez prendre la décision de météo ou de ne pas utiliser la division du temps total par le nombre total de pixels ... !!