J'ai remarqué que l'accès de latence au cache et à la mémoire partagée est le même dans CUDA. Étant donné ce fait, comment sont-ils différents? Comment les utilisons-nous de différentes manières?Quelle est la différence entre mémoire partagée et cache L1 dans GPU?
0
A
Répondre
2
L'utilisation de la mémoire partagée CUDA est explicite avec le mot clé __shared__
. Vous avez un contrôle total sur elle. D'autre part, le cache L1 est géré par le matériel. Les performances et la stratégie de mise en cache du cache L1 dépendent de l'architecture matérielle.