2017-08-23 2 views
0

J'ai besoin d'utiliser une couche d'intégration pour coder les vecteurs de mots, de sorte que les poids de la couche d'intégration sont essentiellement les vecteurs de mots. Évidemment je ne veux pas que les poids dans ce cas soient mis à jour pendant la propagation arrière. Ma question est de savoir si l'intégration de la couche par conception interdit déjà les mises à jour de poids, ou si je dois faire quelque chose de spécial à ce sujet?deeplearning4j Mise à jour du poids de la couche d'incorporation

Répondre

0

regardant un vieux problème ici,

https://github.com/deeplearning4j/deeplearning4j/issues/3118

Je pense que d'une façon de satisfaire ce que je dois est de fixer le taux d'apprentissage, ainsi que le biais à 0, c.-à-.biasInit(0.0).learningRate(0.0), bien que la meilleure façon que je pense, qui est également suggéré à partir du lien ci-dessus, est d'utiliser une couche gelée pour l'envelopper?

EDIT: Je pense que je vais finir avec une solution comme celle-ci,

new FrozenLayer.Builder().layer(new EmbeddingLayer.Builder().nIn(nIn).nOut(nOut).activate(Activate.IDENTITY).biasInit(0.0).build()).build()