Je cherche des papiers/algorithmes pour fusionner des textures projetées sur la géométrie. Pour être plus précis, étant donné un ensemble de caméras/photographies et de géométrie entièrement calibrées, comment pouvons-nous définir une métrique pour choisir quelle photographie doit être utilisée pour texturer un patch donné de la géométrie.Fusion de textures de photos - (à partir de caméras calibrées) - projetées sur la géométrie
Je peux penser à quelques attributs que l'on peut chercher à minimiser, y compris l'angle entre la surface normale et la caméra, la distance de la caméra par rapport à la surface, tout en minimisant le paramétrage de la netteté. La question est de savoir comment ces choses se combinent et y a-t-il des solutions existantes bien établies?
Je pense que stackoverflow n'est pas le meilleur endroit pour poser cette question de recherche. J'essaierais de chercher dans un journal ou une base de données de conférence avec ces mots-clés. Votre université vous donnera accès à un. Un document d'enquête sur la reconstruction 3D avec des textures devrait vous donner des idées sur ce qui a été essayé et sur la façon de procéder. – abc
:) Malheureusement, je ne suis pas un étudiant universitaire. J'ai fait beaucoup de recherches, mais parfois les humains peuvent vous indiquer la bonne direction où des piles d'informations ne peuvent pas, c'est juste un autre endroit pour chercher des pistes possibles. Cela dit, je me rends compte que cela peut être du mauvais côté de la «poser des questions qui peuvent être définitivement répondu», règle de débordement de la pile. – freakTheMighty
Vous pouvez vérifier la bibliothèque OpenCV, qui fournit certaines fonctions susceptibles de vous aider. –