Je fais un exemple de boosting (4 couches DNN à 5 couches DNN) via Tensorflow. Je le fais avec save session et restaure dans TF car il y a un court paragraphe dans TF tute: 'Par exemple, vous avez peut-être entraîné un réseau de neurones avec 4 couches, et vous voulez maintenant former un nouveau modèle avec 5 couches, restaurer les paramètres des 4 couches du modèle précédemment formé dans les 4 premières couches du nouveau modèle. », où tute tensorflow inspire https://www.tensorflow.org/how_tos/variables/.Restaurer les variables qui sont un sous-ensemble du nouveau modèle dans Tensorflow?
Cependant, j'ai trouvé que personne n'a demandé comment utiliser 'restore' quand le point de contrôle enregistre les paramètres de 4 couches mais nous devons mettre cela en 5 couches, en levant un drapeau rouge.
Faire dans votre code, j'ai fait
with tf.name_scope('fcl1'):
hidden_1 = fully_connected_layer(inputs, train_data.inputs.shape[1], num_hidden)
with tf.name_scope('fcl2'):
hidden_2 = fully_connected_layer(hidden_1, num_hidden, num_hidden)
with tf.name_scope('fclf'):
hidden_final = fully_connected_layer(hidden_2, num_hidden, num_hidden)
with tf.name_scope('outputl'):
outputs = fully_connected_layer(hidden_final, num_hidden, train_data.num_classes, tf.identity)
outputs = tf.nn.softmax(outputs)
with tf.name_scope('boosting'):
boosts = fully_connected_layer(outputs, train_data.num_classes, train_data.num_classes, tf.identity)
où les variables à l'intérieur (ou appelé de) 'FCL1' - pour que j'ai 'FCL1/variable' et 'FCL1/Variable_1' pour le poids et les préjugés - 'fcl2', 'fclf' et 'outputl' sont stockés par saver.save() dans le script sans couche 'boosting'. Cependant, comme nous l'avons maintenant la couche « stimuler », saver.restore (sess, « saved_models/model_list.ckpt ») ne fonctionne pas comme
NotFoundError: Key boosting/Variable_1 not found in checkpoint
J'espère vraiment entendre parler de ce problème. Je vous remercie. Ci-dessous le code est la partie principale du code que je suis en difficulté.
def fully_connected_layer(inputs, input_dim, output_dim, nonlinearity=tf.nn.relu):
weights = tf.Variable(
tf.truncated_normal(
[input_dim, output_dim], stddev=2./(input_dim + output_dim)**0.5),
'weights')
biases = tf.Variable(tf.zeros([output_dim]), 'biases')
outputs = nonlinearity(tf.matmul(inputs, weights) + biases)
return outputs
inputs = tf.placeholder(tf.float32, [None, train_data.inputs.shape[1]], 'inputs')
targets = tf.placeholder(tf.float32, [None, train_data.num_classes], 'targets')
with tf.name_scope('fcl1'):
hidden_1 = fully_connected_layer(inputs, train_data.inputs.shape[1], num_hidden)
with tf.name_scope('fcl2'):
hidden_2 = fully_connected_layer(hidden_1, num_hidden, num_hidden)
with tf.name_scope('fclf'):
hidden_final = fully_connected_layer(hidden_2, num_hidden, num_hidden)
with tf.name_scope('outputl'):
outputs = fully_connected_layer(hidden_final, num_hidden, train_data.num_classes, tf.identity)
with tf.name_scope('error'):
error = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(outputs, targets))
with tf.name_scope('accuracy'):
accuracy = tf.reduce_mean(tf.cast(
tf.equal(tf.argmax(outputs, 1), tf.argmax(targets, 1)),
tf.float32))
with tf.name_scope('train'):
train_step = tf.train.AdamOptimizer().minimize(error)
init = tf.global_variables_initializer()
saver = tf.train.Saver()
with tf.Session() as sess:
sess.run(init)
saver.restore(sess, "saved_models/model.ckpt")
print("Model restored")
print("Optimization Starts!")
for e in range(training_epochs):
...
#Save model - save session
save_path = saver.save(sess, "saved_models/model.ckpt")
### I once saved the variables using var_list, but didn't work as well...
print("Model saved in file: %s" % save_path)
Pour plus de clarté, le fichier point de contrôle a
fcl1/Variable:0
fcl1/Variable_1:0
fcl2/Variable:0
fcl2/Variable_1:0
fclf/Variable:0
fclf/Variable_1:0
outputl/Variable:0
outputl/Variable_1:0
Comme le modèle 4 couches d'origine n'a pas la couche 'stimuler'.
Vous pouvez restaurer le modèle à l'aide du paramètre '' var_list' du tf.Saver' [constructeur] (https://www.tensorflow.org/api_docs/python/state_ops/save_and_restoring_variables). Vous serez ensuite responsable de l'initialisation de la couche 5 correctement. – drpng