J'ai une image 5576x9444 et je vais écrire un code parallélisé qui prendra 6 jours comme un maximum à exécuter complètement sur cette image sur un ordinateur avec la configuration suivante:Puis-je calculer le temps qu'il faudrait consacrer à l'exécution de mon code sur un pixel?
- RAM: 12
- CPU: fréquence Corei7 3GHz
- graphique: GeoForce 8400 gs
Mon code est un code qui est le même pour chaque pixel et il doit être exécuté sur chaque pixel.
Y a-t-il un moyen de gagner du temps sur un seul pixel? (au moins approximativement)
Eh bien, pas plus de 10 millisecondes par pixel (pas de magie ici, juste la division). Mais cela ne signifie pas que le benchmark sur 1 pixel doit être inférieur à ce seuil, ce qui serait une mesure de latence quand il s'agit vraiment de débit. – harold
@harold en fait j'ai fait cette division et je veux voir si cette division est juste? Je vais ajouter une image à ma question. – sepideh