2017-02-20 1 views
1

Le modèle caffe normalement formé est en extension .caffemodel et en fait ils sont au format binary protobuf.Comment charger le modèle caffe formé au format h5 en C++ net caffe?

Une idée de comment charger un modèle caffe au format hdf5 en caffe net en C++?

J'ai un modèle formé avec python caffe au format hdf5.

Mon application est en C++ en utilisant la version caffe C++ et je préfère utiliser C++ que python. Comment lire le modèle en format caffe formé au format hdf5 en C++ caffe net?

Je sais que caffe a une couche hdf5data à l'intérieur. Existe-t-il un exemple de programme pour cela?

EDIT:

I utilisé api CopyTrainedLayersFromHDF5() et a obtenu suite à des erreurs d'exécution.

HDF5-DIAG: Error detected in HDF5 (1.8.11) thread 140737353775552: 
    #000: ../../../src/H5G.c line 463 in H5Gopen2(): unable to open group 
    major: Symbol table 
    minor: Can't open object 
    #001: ../../../src/H5Gint.c line 320 in H5G__open_name(): group not found 
    major: Symbol table 
    minor: Object not found 
    #002: ../../../src/H5Gloc.c line 430 in H5G_loc_find(): can't find object 
    major: Symbol table 
    minor: Object not found 
    #003: ../../../src/H5Gtraverse.c line 861 in H5G_traverse(): internal path traversal failed 
    major: Symbol table 
    minor: Object not found 
    #004: ../../../src/H5Gtraverse.c line 641 in H5G_traverse_real(): traversal operator failed 
    major: Symbol table 
    minor: Callback failed 
    #005: ../../../src/H5Gloc.c line 385 in H5G_loc_find_cb(): object 'data' doesn't exist 
    major: Symbol table 
    minor: Object not found 
F0220 15:32:14.272573 24576 net.cpp:811] Check failed: data_hid >= 0 (-1 vs. 0) Error reading weights from model_800000.h5 
*** Check failure stack trace: *** 
    @  0x7ffff64afdcd google::LogMessage::Fail() 
    @  0x7ffff64b1d08 google::LogMessage::SendToLog() 
    @  0x7ffff64af963 google::LogMessage::Flush() 
    @  0x7ffff64b263e google::LogMessageFatal::~LogMessageFatal() 
    @  0x7ffff691c3a3 caffe::Net<>::CopyTrainedLayersFromHDF5() 
    @   0x40828d ExtractFeature::ExtractFeature() 
    @   0x40ce78 main 
    @  0x7ffff5bf8f45 __libc_start_main 
    @   0x4080c9 (unknown) 

Program received signal SIGABRT, Aborted. 
0x00007ffff5c0dc37 in __GI_raise ([email protected]=6) 
    at ../nptl/sysdeps/unix/sysv/linux/raise.c:56 
56 ../nptl/sysdeps/unix/sysv/linux/raise.c: No such file or directory. 
(gdb) cd 
[17]+ Stopped     gdb ./endtoendlib 

EDIT 1:

>>h5ls model_800000.h5 command gave me 

conv1     Group 
conv2     Group 
forget_gate    Dataset {1, 250, 1, 1274} 
inception_3a    Group 
inception_3b    Group 
inception_4a    Group 
inception_4b    Group 
inception_4c    Group 
inception_4d    Group 
inception_4e    Group 
inception_5a    Group 
inception_5b    Group 
input_gate    Dataset {1, 250, 1, 1274} 
input_value    Dataset {1, 250, 1, 1274} 
ip_bbox_unscaled0.p0  Dataset {4, 250} 
ip_bbox_unscaled0.p1  Dataset {4} 
ip_bbox_unscaled1.p0  Dataset {4, 250} 
ip_bbox_unscaled1.p1  Dataset {4} 
ip_bbox_unscaled2.p0  Dataset {4, 250} 
ip_bbox_unscaled2.p1  Dataset {4} 
ip_bbox_unscaled3.p0  Dataset {4, 250} 
ip_bbox_unscaled3.p1  Dataset {4} 
ip_bbox_unscaled4.p0  Dataset {4, 250} 
ip_bbox_unscaled4.p1  Dataset {4} 
ip_conf0.p0    Dataset {2, 250} 
ip_conf0.p1    Dataset {2} 
ip_conf1.p0    Dataset {2, 250} 
ip_conf1.p1    Dataset {2} 
ip_conf2.p0    Dataset {2, 250} 
ip_conf2.p1    Dataset {2} 
ip_conf3.p0    Dataset {2, 250} 
ip_conf3.p1    Dataset {2} 
ip_conf4.p0    Dataset {2, 250} 
ip_conf4.p1    Dataset {2} 
output_gate    Dataset {1, 250, 1, 1274} 
post_fc7_conv.p0   Dataset {1024, 1024, 1, 1} 
post_fc7_conv.p1   Dataset {1024} 
+0

Oui, j'ai vérifié le fichier .h5 et il est au format binaire. – batuman

+0

mais le format binaire est-il correct? si vous 'h5ls model_80000.h5' qu'est-ce que vous obtenez? il semble que caffe s'attend à ce que le fichier ait un ensemble de données ''data'' qui n'est pas là ... – Shai

+0

La commande h5ls m'a donné comme dans EDIT1. Je vois Dataset. – batuman

Répondre

1

Avez-vous envisagé la méthode objet netvoid CopyTrainedLayersFromHDF5(const string trained_filename);? Il semble que ce soit ce que vous cherchez. Comme pour la couche "HDF5Data": vous confondez deux choses ici. Le fichier hdf5 vous stocke les paramètres entraînés du net. En revanche, "HDF5Data" couche stocke les exemples d'entraînement utilisés pour l'entraînement du filet.

+1

ouais votre solution est correcte. J'ai besoin de travailler sur mon fichier h5 pour qu'il puisse être chargé en C++ caffe. – batuman