Si je comprends bien, je peux transformer un 3-Layered NN
en DL NN
en ajoutant un RelU
après the hidden layer
, puis en répétant le hidden layer
+ RelU
allant d'un à 3 couches NN Deep apprentissage avec Relu
Je suis avoir de la difficulté à visualiser comment la dimensionnalité va fonctionner. J'ai maintenant ce qui suit d'un small library je mets ensemble pour que je puisse couler dans les concepts
M = 784 # 28 x 28 pixels
N = 512 # hidden neurons
P = 10 # number of possible classes
w1 = np.random.normal(0.0, pow(10, -0.5), (M, N))
w2 = np.random.normal(0.0, pow(10, -0.5), (N, P))
b1 = np.random.normal(0.0, pow(10, -0.5), (N))
b2 = np.random.normal(0.0, pow(10, -0.5), (P))
x = Input(w1, b1)
h = Hidden(x, w2, b2)
g = Softmax(h)
cost = CrossEntropy(g) # numpy.mean(CrossEntropy) over BATCH SIZE
train_data()
Mais je veux aller à
x = Input(w1, b1)
h = Hidden(x, w2, b2)
r = ReLU(h)
h2 = Hidden(r, ??, ??) # 1
r2 = ReLU(h2) # 2
.. <repeat 1 and 2>
g = Softmax(h)
cost = CrossEntropy(g) # numpy.mean(CrossEntropy) over BATCH SIZE
train_data()
Related article I a writing about this