J'implémente un réseau de neurones avec l'aide du professeur Andrew Ng, ou this, en utilisant l'algorithme de la figure 31. Je pense que j'ai bien compris la propagation vers l'avant et la propagation vers l'arrière, mais je ne comprends pas le poids de mise à jour (thêta) après chaque itération.Neural Network - Mise à jour de la matrice de poids - Algorithme de rétropropagation
Q1. Quand et comment mettre à jour la matrice de poids (thêta) - theta1, theta2?
Q2. À quoi sert le grand Delta? [Résolu, merci @xhudik]
Q3. devons-nous ajouter +1
La signification de capital delta est expliquée directement ci-dessous le pseudo-code: C'est un accumulateur pour les mises à jour de poids; La propagation vers l'avant est effectuée pour tous les échantillons d'entraînement ayant la même (ancienne) matrice de poids. Ensuite, la matrice de poids est mise à jour. Je pense que cela s'appelle l'apprentissage par lots. – Niki
@nikie pourriez-vous s'il vous plaît élaborer, comment peser la matrice est mis à jour? Je n'ai pas pu trouver quoi que ce soit ou peut-être qu'il me manque quelque chose –
Si vous utilisez la descente en dégradé, vous n'ajouterez que les gradients multipliés par le taux d'apprentissage des poids. – Niki