Je cherche à construire un modèle séquence-séquence qui prenne un vecteur de 1 0 et de 0 en 2048 (par exemple [1,0,1,0,0,1 , 0,0,0,1, ..., 1]) comme mon entrée et la traduisant vers ma sortie connue de (une longueur variable) 1-20 caractères longs (ex: GBNMIRN, ILCEQZG, ou FPSRABBRF).LSTM pour la traduction de séquences de caractères vectoriels en caractères
Mon objectif est de créer un modèle capable de prendre en charge un nouveau vecteur de 1 0 et de 0 et de prédire la séquence de sortie. J'ai regardé quelques dépôts github comme this et this.
mais je ne sais pas comment l'implémenter avec mon problème. Y a-t-il des projets qui ont fait quelque chose de similaire à ceci/comment pourrais-je l'implémenter avec les modèles seq2seq ou les LSTM actuellement disponibles? (implémentations de python)
J'utilise la bibliothèque keras en python.
Qu'avez-vous essayé dans quelle langue? – Yunnosch
Comment encodez-vous/normalisez-vous vos chaînes d'entrée? –
Serait-il possible de convertir mon vecteur binaire en ASCII puis de normaliser la chaîne? – rajkarthikkumar