0

J'essaie de collecter mon propre ensemble de données d'entraînement pour la détection d'image (Reconnaissance, pour le moment). En ce moment, j'ai 4 classes et 750 images pour chacun. Chaque image n'est qu'une image régulière de chaque classe. cependant, certaines images sont floues ou contiennent des objets extérieurs tels que des arrière-plans différents ou d'autres facteurs (mais rien de distinctif). En utilisant ce jeu de données d'entraînement, la reconnaissance d'image est vraiment mauvaise.TensorFlow: Collecte de mon propre ensemble de données d'entraînement et utilisation de cet ensemble de données de formation pour trouver l'emplacement de l'objet

Ma question est, 1. Est-ce que le jeu d'images d'entraînement doit contenir l'objet dans divers contexte/environnement/environnement (je crois pas ...)? 2. Disons simplement que la formation a fonctionné assez précisément et que je veux connaître l'emplacement de l'objet sur l'image. Je me dis qu'il n'y a aucun moyen de trouver l'emplacement en utilisant simplement la reconnaissance d'image, donc si j'utilise la boîte englobante, comment/où dans le code puis-je voir l'emplacement de la boîte englobante?

Merci d'avance!

Répondre

0

Il est difficile de savoir à l'avance quelles fonctionnalités votre programme va apprendre pour chaque classe. Mais encore une fois, si vos images invisibles seront dans le même fond, le fond ne jouera aucun rôle. Je suggérerais une augmentation des données à l'entraînement; distorsion aléatoire des couleurs, retournement aléatoire, recadrage aléatoire.

Vous ne pouvez pas voir dans le code où se trouve le cadre de délimitation. Vous devez les étiqueter/les annoter vous-même d'abord dans vos données collectées, en utilisant un outil comme LabelMe par exemple. Puis vient l'apprentissage du détecteur d'objets.