Novice à l'apprentissage en profondeur. Avec le tutoriel MNIST_SOFTMAX.py de gogoel tensorflow (https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py), j'ai ajouté deux nouvelles couches juste pour voir ce qui se passe.Ajout de plusieurs calques à tensorflow Le tutoriel MNIST réduit la précision
x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.matmul(x, W) + b
code modifié ci-dessus dans
x = tf.placeholder(tf.float32, [None, 784])
W1 = tf.Variable(tf.zeros([784, 256]))
W2 = tf.Variable(tf.zeros([256, 256]))
W3 = tf.Variable(tf.zeros([256, 10]))
B1 = tf.Variable(tf.zeros([256]))
B2 = tf.Variable(tf.zeros([256]))
B3 = tf.Variable(tf.zeros([10]))
Y1 = tf.matmul(x, W1) + B1
Y2 = tf.matmul(Y1, W2) + B2
Y3 = tf.matmul(Y2, W3) + B3
y = Y3
il laisse tomber la précision 0,9188 à 0,1028. puis-je avoir une idée de la raison pour laquelle ça tombe?
Peut-être en relation: [Réseau neuronal avec couche cachée moins performante que sans] (http://stats.stackexchange.com/questions/181771/neural-net-with-hidden-layer-performing-worse-than-without) – blacksite
Pouvez-vous poster quelque part le code complet? J'aimerais voir comment tu t'entraînes. Descente de gradient stochastique? –
code dans https://github.com/jeongsoopark/MachineLearning/blob/master/mnist_softmax.py J'ai seulement modifié la construction de la couche à partir de la valeur par défaut de tensorflow MNIST_softmax.py – jspark