Répondre

1

Eh bien, il semble que vous moitié répondu à votre propre question: son vrai vous corriger tous les poids non nuls, vous ne corrige pas tout du même montant. Au lieu de cela, vous corrigez les poids proportionnellement à leur activation, donc si l'unité X s'activait vraiment fortement et l'unité Y seulement un petit bit, et il y avait une grosse erreur, alors le poids va de l'unité X à la sortie serait corrigé beaucoup plus que les poids de l'unité Y à produire.

Le terme technique pour ce processus est appelé la règle delta, et ses détails peuvent être trouvés dans son wiki article. De plus, si vous voulez mettre à jour en utilisant des perceptrons multicouches (perceptrons monocouche sont très limitée en puissance de calcul, voir a discussion of Minsky and Papert's argument against using them here), un algorithme d'apprentissage analogue appelé propagation propogation est discuté here.

+0

Par activation, voulez-vous dire poids fois entrée? – Hypercube

Questions connexes