J'ai un réseau de neurones avec N noeuds d'entrée et N noeuds de sortie, et peut-être plusieurs couches cachées et récurrences, mais oublions les premiers. Le but du réseau de neurones est d'apprendre une variable N-dimensionnelle Y *, donnée N-dimensionnelle X. Disons que la sortie du réseau neuronal est Y, qui devrait être proche de Y * après l'apprentissage. Ma question est la suivante: est-il possible d'obtenir l'inverse du réseau de neurones pour la sortie Y *? C'est-à-dire, comment puis-je obtenir la valeur X * qui donnerait Y * lorsqu'il est placé dans le réseau de neurones? (ou quelque chose de proche)l'inverse local d'un réseau de neurones
Une grande partie du problème est que N est très grand, typiquement de l'ordre de 10000 ou 100000, mais si quelqu'un sait comment résoudre cela pour les petits réseaux sans récurrences ou couches cachées cela pourrait déjà être utile. Je vous remercie.
Avez-vous des informations sur la stabilité numérique d'une telle approche? Il me semble que ça pourrait aller horriblement mal. –
Oui, il pourrait, par exemple. if | W2p * (tanh^-1 (Y) - b2) |> 1 l'argument de la fonction serait hors tanh^-1 (\ cdot) domain. –