0

Je travaille sur la classification binaire. J'ai créé mon réseau comme: CONV1, Relu1, Pool1 - CONV2, Relu2, Pool2 - Conv3, Relu3, Pool3 - Conv4, Relu4 - Conv5 Relu5 Dropot 0,5, FC, Dropout 0,5 - SoftmaxlossLayerValeur décroissante de poids présentant les pires performances

Toutes les couches conv 3x3 . Le poids par défaut est 0,0005. Et je reçois ce résultat. précision de la formation: 98% Test Précision: 88%

enter image description here

Le même réseau est ensuite utilisé avec Weightdecay 0,005

enter image description here

Toute personne, S'il vous plaît aidez-moi à partager pourquoi il montre comme ça en changeant la valeur de la décroissance du poids?

Répondre

1

carie poids pénalisant la complexité du modèle, il est donc utilisé pour contrôler la variance du modèle par rapport à son parti pris. Il est clair que si vous pénalisez trop la complexité, le modèle n'apprendra rien d'utile, car ce sera trop simple.

Pour d'autres méthodes que vous pouvez voir notes for Hinton's Coursera course de régularisant les réseaux de neurones.

+0

J'ai mis à jour ma question avec précision en utilisant les valeurs par défaut de la perte de poids. Je veux toujours combler l'écart entre l'entraînement et la précision des tests. Qu'en penses-tu .. que devrais-je essayer d'autre? Je suis nouveau dans ce domaine et je suis l'outil MatconvNet pour cela – Addee