Je suis très novice en matière de ML avec Big Data et j'ai déjà joué avec des exemples de convolution génériques de Keras pour la classification chien/chat, mais lorsque j'applique une approche similaire à mon ensemble d'images, problèmes de mémoire.Problèmes de mémoire avec Keras Convolutional Network
Mon jeu de données est constitué d'images très longues d'une taille de 10048 x 1687 pixels. Pour contourner les problèmes de mémoire, j'utilise une taille de lot de 1, alimentant une image à la fois au modèle.
Le modèle a deux couches convolutives, chacune suivie d'un pool maximum qui, ensemble, rendent la couche aplatie environ 290 000 entrées juste avant la couche entièrement connectée.
Immédiatement après l'exécution cependant, l'utilisation de mémoire s'étouffe à sa limite (8 Go).
Mes questions sont les suivantes:
1) Quelle est la meilleure approche pour traiter les calculs de cette taille en Python localement (pas d'utilisation Cloud)? Existe-t-il d'autres bibliothèques python à utiliser?
Si vous utilisez TensorFlow comme backend, vous pourrez diviser le réseau sur plusieurs GPU. – Mathias