Je sais que les noyaux CUDA peuvent être "superposés" en les plaçant dans des flux séparés, mais je me demande s'il serait possible de transférer de la mémoire lors des exécutions du noyau. Les noyaux CUDA sont asynchrones afterallCUDA transfert de mémoire pendant l'exécution du noyau
3
A
Répondre
2
Vous pouvez exécuter des noyaux, des transferts d'hôte vers un périphérique et des transferts simultanés d'un périphérique à l'autre.
http://developer.download.nvidia.com/CUDA/training/StreamsAndConcurrencyWebinar.pdf
1
Juste pour clarifier, ce qui précède ne sont valables que si votre appareil supporte. Vous pouvez vérifier la requête de l'appareil en cours d'exécution et en vérifiant l'attribut copie simultanée et exécution
Questions connexes
- 1. Configuration du noyau Cuda
- 2. cuda - optimisation du noyau
- 3. Transfert de grande quantité de mémoire variable de Cuda
- 4. Blocage d'invocation du noyau CUDA?
- 5. cuda des paramètres du noyau
- 6. Comportement étrange du noyau CUDA
- 7. transfert de données asynchrone CUDA
- 8. ida64 accès à la mémoire pendant le débogage du noyau
- 9. CUDA échoue lors de la libération de la mémoire après l'erreur d'exécution du noyau
- 10. Fonction à l'intérieur du noyau cuda
- 11. mémoire Dynamiquement allocation à l'intérieur __device/global__ CUDA noyau
- 12. Espace mémoire des tableaux dans le noyau CUDA
- 13. Erreur compilation CUDA noyau
- 14. exigences de mémoire CUDA
- 15. mémoire CUDA trouble
- 16. Écrasement de mémoire partagée cuda?
- 17. Comment utiliser la mémoire partagée entre l'appel du noyau de CUDA?
- 18. CUDA: adresse mémoire globale
- 19. mémoire globale vs mémoire partagée dans CUDA
- 20. Profilage CUDA dans le noyau
- 21. Mémoire Coalesced CUDA 2D Kernel
- 22. Comment tuer le noyau CUDA par programme
- 23. noyau CUDA complexe dans MATLAB
- 24. Simulation cuda nbody - problème de mémoire partagée
- 25. l'exécution simultanée du noyau nécessite l'utilisation de la mémoire épinglée
- 26. Désactiver ARP pendant le transfert de données
- 27. CUDA multi gpu: exécution du même noyau (périphérique double puce)
- 28. Compilation du noyau CUDA séparément de l'hôte CMake
- 29. Gestion de la mémoire du noyau Linux
- 30. Protection de la mémoire du noyau Windows
Merci pour l'information, je le savais mais il est toujours utile de le répéter – paulAl