Je commence des réseaux de neurones, en suivant principalement D. Kriesel's tutorial. Dès le début, il introduit au moins trois (différentes?) Règles d'apprentissage (Hebbian, delta rule, backpropagation) concernant l'apprentissage supervisé.Réseaux de neurones - pourquoi tant de règles d'apprentissage?
Il se peut que je manque quelque chose, mais si le but est simplement de minimiser l'erreur, pourquoi ne pas simplement appliquer la descente en dégradé sur Error(entire_set_of_weights)
?
Editer: Je dois admettre que les réponses me troublent encore. Il serait utile de souligner la différence entre ces méthodes et la différence entre elles et la descente directe du gradient. Pour le souligner, ces règles d'apprentissage semblent tenir compte de la structure en couches du réseau. D'un autre côté, trouver le minimum de Error(W)
pour l'ensemble des poids l'ignore complètement. Comment cela s'intègre-t-il?