Je travaille sur un projet de reconnaissance d'image en python. J'ai lu dans des journaux que si le regroupement effectué par une carte auto-organisatrice (SOM) est entré dans un réseau neuronal supervisé, la précision de la reconnaissance d'image s'améliore par rapport au réseau supervisé seul. J'ai essayé ceci moi-même en utilisant une bibliothèque pour effectuer le regroupement et en utilisant les coordonnées du neurone gagnant après chaque itération comme entrée d'un perceptron multicouche des keras. Cependant, la précision est très mauvaise.Comment combiner une carte auto-organisatrice et un perceptron multicouche en python
Est-ce que quelqu'un connaît une autre façon de combiner un SOM et un perceptron multicouche autre que d'utiliser les coordonnées SOM gagnantes?
Je ne sais pas si je comprends bien. Vous entraînez d'abord la couche SOM et après une formation non supervisée vous donnez des coordonnées de neurones gagnantes MLP? – viceriel
Oui, je forme d'abord le SOM qui regroupe les images que je saisis dedans. Après l'entraînement non supervisé de la SOM, je stocke les coordonnées x, y gagnantes dans un tableau 2d numpy et je fournis cela au MLP en entrée, mais la précision de test du MLP est vraiment faible, donc je me demandais s'il y avait un autre moyen de combiner un SOM et MLP autres que la fourniture des coordonnées –
duplication possible de [Hybrid SOM (avec MLP)] (https://stackoverflow.com/questions/36434218/hybrid-som-with-mlp) –