2016-04-11 5 views
4

J'utilise le réseau VGG-16 par keras. C'est le detailComment utiliser vgg-net quand je charge vgg16_weights.h5?

mon problème est comment utiliser ce net pour affiner, et dois-je utiliser la taille de l'image qui est 224 * 224 pour ce net? Et je dois utiliser 1000 classes quand j'utilise ce net? si je ne l'utilise 1000 classes, il provoque l'erreur

Exception: Layer shape (4096L, 10L) not compatible with weight shape (4096, 1000).

Demandez de l'aide, je vous remercie!

Répondre

5

J'ai posté une réponse détaillée in this issue si vous voulez jeter un oeil. L'extrait suivant vous aidera à la dimension de votre dernière couche:

from keras.models import Sequential, Graph 
from keras.layers import Convolution2D, ZeroPadding2D, MaxPooling2D 
import keras.backend as K 

img_width, img_height = 128, 128 

# build the VGG16 network with our input_img as input 
first_layer = ZeroPadding2D((1, 1), input_shape=(3, img_width, img_height)) 

model = Sequential() 
model.add(first_layer) 
model.add(Convolution2D(64, 3, 3, activation='relu', name='conv1_1')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(64, 3, 3, activation='relu', name='conv1_2')) 
model.add(MaxPooling2D((2, 2), strides=(2, 2))) 

model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(128, 3, 3, activation='relu', name='conv2_1')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(128, 3, 3, activation='relu', name='conv2_2')) 
model.add(MaxPooling2D((2, 2), strides=(2, 2))) 

model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(256, 3, 3, activation='relu', name='conv3_1')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(256, 3, 3, activation='relu', name='conv3_2')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(256, 3, 3, activation='relu', name='conv3_3')) 
model.add(MaxPooling2D((2, 2), strides=(2, 2))) 

model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv4_1')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv4_2')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv4_3')) 
model.add(MaxPooling2D((2, 2), strides=(2, 2))) 

model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv5_1')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv5_2')) 
model.add(ZeroPadding2D((1, 1))) 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv5_3')) 
model.add(MaxPooling2D((2, 2), strides=(2, 2))) 

# get the symbolic outputs of each "key" layer (we gave them unique names). 
layer_dict = dict([(layer.name, layer) for layer in model.layers]) 

# load the weights 

import h5py 

weights_path = 'vgg16_weights.h5' 

f = h5py.File(weights_path) 
for k in range(f.attrs['nb_layers']): 
    if k >= len(model.layers): 
     # we don't look at the last (fully-connected) layers in the savefile 
     break 
    g = f['layer_{}'.format(k)] 
    weights = [g['param_{}'.format(p)] for p in range(g.attrs['nb_params'])] 
    model.layers[k].set_weights(weights) 
f.close() 
print('Model loaded.') 

# Here is what you want: 

graph_m = Graph() 
graph_m.add_input('my_inp', input_shape=(3, img_width, img_height)) 
graph_m.add_node(model, name='your_model', input='my_inp') 
graph_m.add_node(Flatten(), name='Flatten', input='your_model') 
graph_m.add_node(Dense(4096, activation='relu'), name='Dense1',  input='Flatten') 
graph_m.add_node(Dropout(0.5), name='Dropout1', input='Dense1') 
graph_m.add_node(Dense(4096, activation='relu'), name='Dense2', input='Dropout1') 
graph_m.add_node(Dropout(0.5), name='Dropout2', input='Dense2') 
graph_m.add_node(Dense(10, activation='softmax'), name='Final', input='Dropout2') 
graph_m.add_output(name='out1', input='Final') 
sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True) 
graph_m.compile(optimizer=sgd, loss={'out1': 'categorical_crossentropy'}) 

Notez que vous pouvez geler la formation des couches d'extraction de caractéristiques et seulement affiner les dernières couches entièrement connectées. Depuis le doc, il suffit d'ajouter trainable = False pour geler l'entraînement d'un calque. Ex congèle:

... 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv5_1', trainable=False)) 
... 

Ex trainable:

... 
model.add(Convolution2D(512, 3, 3, activation='relu', name='conv5_1',  trainable=True)) 
... 

trainable est True par défaut pour que quelque chose se passe si vous ne connaissez pas la fonction ...

+0

Merci beaucoup !! ! Dans votre code, vous voulez dire que j'ai juste besoin d'éditer le dernier calque pour mon numéro de cours? et si toute la couche I set trainable = False signifie que le poids par défaut dans le fichier h5 ne peut pas être mis à jour? – sky

+0

Exactement, et il sera beaucoup plus rapide de former le réseau sur votre problème. –

+0

Notez que vous pouvez utiliser un second modèle séquentiel à la place du modèle de graphique. –