2017-10-21 62 views
0

J'essaie d'utiliser le toolkit torch/rnn pour exécuter des RNN sur ma carte graphique nVidia. J'ai une machine virtuelle Ubuntu 16.04 avec le driver nVidia, CUDA toolkit, Torch, et cuDNN. Je peux lancer l'exemple mnistCUDNN et nvidia-smi le montre en utilisant la carte graphique. Dans Torch, je peux exiger ('cunn'); et il charge heureusement.torch/rnn n'utilisera pas CUDA

MAIS quand je dofile ('./ rnn/examples/recurrent-visual-attention.lua'); à l'intérieur de la torche, je reçois

{ 
    batchsize : 20 
    cuda : false 
    cutoff : -1 
    dataset : "Mnist" 
    device : 1 
    earlystop : 200 
    glimpseDepth : 1 
    glimpseHiddenSize : 128 
    glimpsePatchSize : 8 
    glimpseScale : 2 
    hiddenSize : 256 
    id : "ptb:brain:1508585440:1" 
    imageHiddenSize : 256 
    locatorHiddenSize : 128 
    locatorStd : 0.11 
    lstm : false 
    maxepoch : 2000 
    maxnormout : -1 
    minlr : 1e-05 
    momentum : 0.9 
    noTest : false 
    overwrite : false 
    progress : false 
    rewardScale : 1 
    saturate : 800 
    savepath : "/home/tom/save/rmva" 
    seqlen : 7 
    silent : false 
    startlr : 0.01 
    stochastic : false 
    trainsize : -1 
    transfer : "ReLU" 
    uniform : 0.1 
    unitPixels : 13 
    validsize : -1 
    version : 13 
} 

et depuis cuda: faux, il s'exécute en utilisant seulement le CPU.

Des idées pour savoir ce que j'ai manqué? Merci.

Répondre

0

Je suis un idiot. Quand j'ai enfin eu le courage de lire le code source, j'ai découvert qu'il n'essayait pas automatiquement d'utiliser CUDA. Il y a un drapeau -cuda pour le demander. Pour ma défense, les exemples ne sont pas documentés ...