Je crée une fonction keras personnalisée (pour les couches lambda ou des fonctions de perte) qui à un moment donné doit obtenir la valeur d'un tenseur trainable comme une constante.Keras - Copier tenseur comme non trainable
Il est pour une normalisation expérimentale d'un var. Je veux qu'il soit 1, mais il devrait continuer à se mettre à jour pendant la formation.
def normFunc(inputTrainableTensor):
#I want this function - here in pseudocode:
nonTrainableVersion = K.make_a_non_trainable_copy(inputTrainableTensor)
return inputTrainableTensor/nonTrainableVersion
En termes de produits dérivés, ce qui équivaut à anyConstant * inputTrainableTensor