J'essaie d'apprendre les plongements d'état pour une séquence d'états produits par un HMM, de la même façon que le tensor Vector Representation of Words le fait pour les séquences de texte.Tensorflow limitant la taille du lot lors de l'apprentissage des incorporations
Mon problème est que le «vocabulaire» de ce HMM est seulement 12 états différents. Tensorflow ne semble pas aimer quand je cours mon code en utilisant des lots plus grands que la taille de ce vocabulaire. Par exemple, en essayant de former avec une taille de lot de 14 donne l'erreur:
F tensorflow/core/kernels/range_sampler.cc:86] Check failed: batch_size + avoided_values.size() <= range_ (14 vs. 12)
Abort trap: 6
Quelle est la motivation derrière cette vérification?