J'apprends maintenant le cours stanford cs231n. En complétant la fonction softmax_loss, j'ai trouvé qu'il n'est pas facile d'écrire dans un type entièrement vectorisé, en particulier avec le terme dw. Voici mon code. Quelqu'un peut-il optimiser le code? Serait apprécié.Fonction softmax_loss: Transforme la boucle en fonctionnement matriciel
def softmax_loss_vectorized(W, X, y, reg):
loss = 0.0
dW = np.zeros_like(W)
num_train = X.shape[0]
num_classes = W.shape[1]
scores = X.dot(W)
scores -= np.max(scores, axis = 1)[:, np.newaxis]
exp_scores = np.exp(scores)
sum_exp_scores = np.sum(exp_scores, axis = 1)
correct_class_score = scores[range(num_train), y]
loss = np.sum(np.log(sum_exp_scores)) - np.sum(correct_class_score)
exp_scores = exp_scores/sum_exp_scores[:,np.newaxis]
# **maybe here can be rewroten into matrix operations**
for i in xrange(num_train):
dW += exp_scores[i] * X[i][:,np.newaxis]
dW[:, y[i]] -= X[i]
loss /= num_train
loss += 0.5 * reg * np.sum(W*W)
dW /= num_train
dW += reg * W
return loss, dW
Merci pour votre réponse et suggestion! Je l'apprends toujours selon votre suggestion. – luoshao23