2017-06-18 2 views
1

J'ai utilisé SavedModel (Inception_resnet_v2) pour exporter les fichiers du modèle TensorFlow et utiliser TensorFlow Serving pour charger les fichiers.J'ai directement remplacé minst offical saved_model.pb avec mon propre fichier Inception_resnet_v2 saved_model.pb . Mais j'ai une erreur.Impossible de charger le fichier pb dans tensorflow servant

[email protected]:~/serving$ bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=mnist --model_base_path=/home/deep/serving/tmp/mnist_model 2017-06-18 10:39:41.963490: I tensorflow_serving/model_servers/main.cc:146] Building single TensorFlow model file config: model_name: mnist model_base_path: home/deep/serving/tmp/mnist_model model_version_policy: 0 2017-06-18 10:39:41.963752: I tensorflow_serving/model_servers/server_core.cc:375] Adding/updating models. 2017-06-18 10:39:41.963762: I tensorflow_serving/model_servers/server_core.cc:421] (Re-)adding model: mnist 2017-06-18 10:39:42.065556: I tensorflow_serving/core/basic_manager.cc:698] Successfully reserved resources to load servable {name: mnist version: 1} 2017-06-18 10:39:42.065610: I tensorflow_serving/core/loader_harness.cc:66] Approving load for servable version {name: mnist version: 1} 2017-06-18 10:39:42.065648: I tensorflow_serving/core/loader_harness.cc:74] Loading servable version {name: mnist version: 1} 2017-06-18 10:39:42.065896: I external/org_tensorflow/tensorflow/contrib/session_bundle/bundle_shim.cc:360] Attempting to load native SavedModelBundle in bundle-shim from: /home/deep/serving/tmp/mnist_model/1 2017-06-18 10:39:42.066130: I external/org_tensorflow/tensorflow/cc/saved_model/loader.cc:226] Loading SavedModel from: /home/deep/serving/tmp/mnist_model/1 2017-06-18 10:39:42.080775: I external/org_tensorflow/tensorflow/cc/saved_model/loader.cc:274] Loading SavedModel: fail. Took 14816 microseconds. 2017-06-18 10:39:42.080822: E tensorflow_serving/util/retrier.cc:38] Loading servable: {name: mnist version: 1} failed: Not found: Could not find meta graph def matching supplied tags. Que dois-je faire? Merci!

Répondre

2

Je bavardé aux ingénieurs de service, et voici quelques-unes de leurs réflexions à ce sujet:

On dirait qu'ils ont besoin de spécifier une étiquette soit dans le modèle enregistré, ou sur la ligne de commande. (Ligne du journal de la note: failed: Pas trouvé: Impossible de trouver graphique méta balises correspondant def fournies.)

Il semble que le chargeur SavedModel ne peut pas trouver un graphique correspondant aux étiquettes qu'ils ont fournis. Voici quelques documents : https://github.com/tensorflow/tensorflow/tree/master/tensorflow/python/saved_model#tags

Ah, d'ajouter: Ils pourraient utiliser la CLI SavedModel pour inspecter le modèle et voir ce tag-ensembles sont disponibles. Voici la documentation pour cela: https://www.tensorflow.org/versions/master/programmers_guide/saved_model_cli.

Ils peuvent exécuter

saved_model_cli show --dir <SavedModelDir> 

pour vérifier les étiquettes-ensembles sont en SavedModel si elles ont pip tensorflow installé.