J'essaie d'utiliser le toolkit torch/rnn pour exécuter des RNN sur ma carte graphique nVidia. J'ai une machine virtuelle Ubuntu 16.04 avec le driver nVidia, CUDA toolkit, Torch, et cuDNN. Je peux lancer l'exemple mnistCUDNN et nvidia-smi le montre en utilisant la carte graphique. Dans Torch, je peux exiger ('cunn'); et il charge heureusement.torch/rnn n'utilisera pas CUDA
MAIS quand je dofile ('./ rnn/examples/recurrent-visual-attention.lua'); à l'intérieur de la torche, je reçois
{
batchsize : 20
cuda : false
cutoff : -1
dataset : "Mnist"
device : 1
earlystop : 200
glimpseDepth : 1
glimpseHiddenSize : 128
glimpsePatchSize : 8
glimpseScale : 2
hiddenSize : 256
id : "ptb:brain:1508585440:1"
imageHiddenSize : 256
locatorHiddenSize : 128
locatorStd : 0.11
lstm : false
maxepoch : 2000
maxnormout : -1
minlr : 1e-05
momentum : 0.9
noTest : false
overwrite : false
progress : false
rewardScale : 1
saturate : 800
savepath : "/home/tom/save/rmva"
seqlen : 7
silent : false
startlr : 0.01
stochastic : false
trainsize : -1
transfer : "ReLU"
uniform : 0.1
unitPixels : 13
validsize : -1
version : 13
}
et depuis cuda: faux, il s'exécute en utilisant seulement le CPU.
Des idées pour savoir ce que j'ai manqué? Merci.