Je suis un débutant à torch et à lua (comme n'importe qui qui a suivi mes derniers messages pourrait attester :) et ai la question suivante sur la fonction d'avant pour le gmodule objet (classe nngraph).Torche, réseaux de neurones - fonction forward sur l'objet gmodule - classe de ngraph
selon le code source (https://github.com/torch/nn/blob/master/Module.lua - comme GModule de classe hérite de nn.module) la syntaxe est:
function Module:forward(input)
return self:updateOutput(input)
end
Cependant, j'ai trouvé des cas où une table est passée en entrée, comme dans:
local lst = clones.rnn[t]:forward{x[{{}, t}], unpack(rnn_state[t-1])}
où:
clones.rnn[t]
lui-même est un objet GModule. À son tour, rnn_state [t-1] est une table avec 4 tenseurs. Donc à la fin, nous avons quelque chose de semblable à
result_var = gmodule:forward{[1]=tensor_1,[2]=tensor_2,[3]=tensor_3,...,[5]=tensor_5}
La question est, en fonction de l'architecture du réseau, vous pouvez passer l'entrée - formaté comme tableau - non seulement à la couche d'entrée, mais aussi aux couches cachées?
Dans ce cas, vous devez vérifier que vous passez exactement une entrée par couche? (À l'exception de la couche de sortie)
Merci beaucoup