3

Je fais la segmentation sémantique FCN32 sur mes données. J'ai couru l'algorithme pour affiner mes données (images en niveaux de gris avec un seul canal), jusqu'à 80 000 itérations; Cependant, la perte et la précision fluctuent et l'image de sortie est complètement noire. Même, la perte est si élevée après 80 000 itérations. Je pensais que le classificateur ne pouvait pas bien s'entraîner sur mes données. Donc, je vais m'entraîner à partir de zéro. D'autre part, mes données ont déséquilibré les membres du cours. Les pixels d'arrière-plan sont plus que les quatre autres classes. Certains chercheurs suggèrent d'utiliser une perte pondérée. Est-ce que quelqu'un a une idée? Est-ce que je fais le bon chemin? Comment puis-je ajouter cette perte pondérée à train_val.prototxt?Existe-t-il un exemple d'utilisation de la perte pondérée pour les tâches de segmentation/classification par pixel?

Je serai reconnaissant si vous connaissez des ressources/exemples liés à l'entraînement avec perte pondérée, s'il vous plaît partager avec moi ici.

Merci encore

Répondre

3

Vous pouvez attaquer un déséquilibre de classe à l'aide "InfogainLoss". Cette perte peut être considérée comme une extension à "SoftmaxWithLoss" qui vous permet de «payer» une valeur de perte différente par étiquette.
Si vous souhaitez utiliser "InfogainLoss" pour les prévisions par pixel, vous devrez peut-être utiliser BVLC/caffe PR#3855.