Une Keras introduction au modèle Seq2Seq ont été publiés il y a quelques semaines que l'on retrouve ici: https://blog.keras.io/a-ten-minute-introduction-to-sequence-to-sequence-learning-in-keras.html Je ne comprends pas vraiment une partie de ce code:Keras Seq2Seq Présentation
decoder_lstm = LSTM(latent_dim, return_sequences=True, return_state=True) decoder_outputs, _, _= decoder_lstm(decoder_inputs,initial_state=encoder_states) decoder_dense = Dense(num_decoder_tokens, activation='softmax') decoder_outputs = decoder_dense(decoder_outputs)
Voici le decoder_lstm
est défini. C'est une couche de dimension latent_dim
. Nous utilisons les états de l'encodeur comme initial_state pour le décodeur. Qu'est-ce que je ne comprends pas, c'est pourquoi une couche dense est ensuite ajoutée après la couche LSTM et pourquoi cela fonctionne-t-elle? Le décodeur est censé renvoyer toute la séquence à cause de return_sequences = True
, alors comment est-il possible que l'ajout d'une couche dense après fonctionne?
Je crois que je manque someting ici, merci d'avance pour votre aide
Ben