Je crée ANN à partir d'un tutoriel. Dans le didacticiel, le sigmoïde et dsigmoid sont les suivantes:Fonction sigmoïde et dérivée de la fonction sigmoïde dans ANN
sigmoid(x) = tanh(x)
dsigmoid(x) = 1-x*x
Cependant, par définition, dsignmoid est dérivée de la fonction sigmoïde, ainsi il devrait être (http://www.derivative-calculator.net/#expr=tanh%28x%29):
dsigmoid(x) = sech(x)*sech(x)
Lorsque vous utilisez 1- x * x, l'entraînement converge, mais quand j'utilise le dérivé mathématiquement correct, ie. sech au carré, le processus de formation ne converge pas. La question est de savoir pourquoi 1-x * x fonctionne (modèle entraîné pour corriger les poids), et la dérivée mathématique sech (x) ne fonctionne pas (le modèle obtenu après le nombre maximum d'itérations contient des poids erronés)?
Quelle est votre question? – Carcigenicate
clarifié la question – johnlowvale