J'ai un modèle Keras qui fait des inférences sur un Raspberry Pi (avec un appareil photo). Le Raspberry Pi a un processeur très lent (1,2 GHz) et pas de GPU CUDA donc l'étape model.predict()
prend beaucoup de temps (~ 20 secondes). Je cherche des façons de réduire cela autant que possible. J'ai essayé:Accélération de l'inférence des modèles Keras
- Overclocker le CPU (+ 200 MhZ) et obtenu quelques secondes supplémentaires de performance.
- Utilisation de float16 au lieu de float32.
- Réduire autant que possible la taille d'entrée de l'image.
Y at-il autre chose que je peux faire pour augmenter la vitesse pendant l'inférence? Y at-il un moyen de simplifier un model.h5 et de prendre une baisse de précision? J'ai eu du succès avec des modèles plus simples, mais pour ce projet, je dois me fier à un modèle existant, donc je ne peux pas me former à partir de zéro.
Comment va votre architecture de modèle? –
@ FábioPerez très complexe. VGG16 alors une structure double où les deux chemins sont 30 couches + qui sont ensuite concaténées à la fin. Il est pré-formé tellement je ne peux pas ajuster la structure du modèle. – megashigger
L'inférence de VGG est lente en raison de la grande couche entièrement connecté à la fin. Utilisez un réseau plus rapide tel que MobileNet. –