J'utilise Tesla k40c gpu. Je lance le code suivant à ce sujet:L'utilisation de la mémoire partagée provoque-t-elle une erreur dans ce code?
#define gpuErrchk(ans) { gpuAssert((ans), __FILE__, __LINE__); }
inline void gpuAssert(cudaError_t code, const char *file, int line, bool abort=true)
{
if (code != cudaSuccess)
{
fprintf(stderr,"GPUassert: %s %s %d\n", cudaGetErrorString(code), file, line);
if (abort) exit(code);
}
}
__global__ void ker(float * a, float * c,long long cor_size,int n, int m)
{
extern __shared__ float cache[];
cache[threadIdx.x]=4;
}
int main()
{
int m =500,n =10000;
long long cor_size = n-1;
cor_size *=n;
cor_size /=2;
float * dev_bold1,*dev_bold3;
gpuErrchk(cudaMalloc ((void**)&dev_bold1,sizeof(float)*m*n));
gpuErrchk(cudaMalloc ((void**)&dev_bold3,sizeof(float)*cor_size));
float * bold1 = new float [m*n];
memset(bold1, 0, sizeof(float)*m*n);
float * bold3 = new float [cor_size];
memset(bold3, 0, sizeof(float) *cor_size);
gpuErrchk(cudaMemcpy(dev_bold1, bold1, sizeof(float) * m * n, cudaMemcpyHostToDevice));
ker<<<cor_size,m,m>>>(dev_bold1,dev_bold3,cor_size,n,m);
gpuErrchk(cudaPeekAtLastError());
gpuErrchk(cudaMemcpy(bold3, dev_bold3, sizeof(float)*cor_size, cudaMemcpyDeviceToHost));
return 1;
}
Après l'exécution de code, je suis l'erreur suivante:
GPUassert: an illegal memory access was encountered test2.cu 48
Ligne 48 fait référence à
gpuErrchk(cudaMemcpy(bold3, dev_bold3, sizeof(float)*cor_size, cudaMemcpyDeviceToHost));
Je ne comprends pas ce qui cause la erreur mais quand je change la valeur de m pour quelque chose comme 50 fonctionne ou moins de code, mais pour des valeurs plus élevées, cela me donne cette erreur. Ce problème est-il lié à l'utilisation de la mémoire partagée?
Oui c'était le problème, merci! – starrr