Comme l'a demandé, je vais étoffer mes commentaires dans une réponse.
D'autres ont mentionné cela, mais vous avez probablement un téléchargement corrompu ou il y a quelque chose de cassé avec le modèle lui-même. Pour commencer, je recommande fortement de ne pas utiliser le modèle VGG16 ou les modèles associés sur un appareil mobile juste en raison de leur taille pure (500 Mo pour VGG16). Vous allez épuiser la mémoire sur un iPhone 6 tout en chargeant le modèle, la taille de votre application sera gigantesque, et vous aurez une longue durée d'initialisation que ces poids sont chargés. Je recommande d'utiliser quelque chose comme un variant SqueezeNet, qui est petit (~ 5 Mo), peut être plus précis lorsqu'il est entraîné sur ImageNet, et n'est pas aussi coûteux en termes de calcul que la famille Inception. Apple fait référence à l'utilisation de l'un d'entre eux dans l'une des sessions Core ML WWDC.
Lorsque vous ajoutez le modèle à votre projet Xcode, assurez-vous qu'il est en cours d'enregistrement auprès de votre cible. La version bêta actuelle de Xcode oublie occasionnellement d'ajouter ceci à votre cible, donc mettez en surbrillance le modèle et vérifiez dans l'inspecteur de fichiers pour vous assurer qu'il fait partie de la cible de votre application. Si le modèle n'est pas dans votre cible, Xcode ne générera pas automatiquement l'en-tête Swift pour cela.
L'exemple de projet peut être trouvé ici https://medium.com/towards-data-science/welcoming-core-ml-8ba325227a28, https://github.com/alaphao/CoreMLExample –
Je ne connais pas le répondre (peut-être le VGG16.mlmodel n'a pas été téléchargé correctement?) mais vous ne voulez pas utiliser VGG16 sur un appareil mobile de toute façon. C'est trop grand (500+ MB), beaucoup trop lent, et il consomme trop d'énergie. –
J'ai téléchargé ce modèle à partir du site Web Apple à plusieurs reprises. Peut-être sur le site Apple le fichier est cassé ... Oui, je sais que la taille de ce modèle est très grande. Donc dites intérêt de la recherche. –