J'ai des questions spécifiques sur la façon de former un réseau de neurones qui est plus grand que ram. Je veux utiliser le standard de facto qui semble être Keras et tensorflow.Plus précisément, comment former le réseau de neurones quand il est plus grand que ram?
Quelles sont les principales catégories et les méthodes que je dois utiliser De Numpy, à scipy, à pandas géants, h5py, à keras afin de ne pas dépasser mes 8 maigres Go de RAM? J'ai le temps de former le modèle; Je n'ai pas d'argent. Mon dataset nécessite 200 Go de RAM.
Dans keras, il existe une méthode model_fit(). Il nécessite des tableaux X et Y numpy. Comment l'obtenir pour accepter des tableaux hdf5 numpy sur disque? Et lors de la spécification de l'architecture du modèle elle-même Comment puis-je sauvegarder le bélier car la mémoire de travail ne nécessite-t-elle pas> 8 Go par moments? En ce qui concerne fit_generator, est-ce que cela accepte les fichiers hdf5? Si la méthode model_fit() peut accepter hdf5, ai-je même besoin d'un générateur d'ajustement? Il semble que vous devez toujours être en mesure d'adapter le modèle entier dans RAM, même avec ces méthodes?
Dans keras, le modèle inclut-il les données d'apprentissage lors du calcul de ses besoins en mémoire? Si oui, je suis en difficulté, je pense.
En substance, je suis en supposant que, à aucun moment je peux dépasser mon 8 Go de RAM, que ce soit d'un codage chaud pour charger le modèle à la formation même sur un petit lot d'échantillons. Je ne suis pas sûr de savoir comment l'accomplir concrètement.
Votre réseau de neurones est donc plus grand que la RAM et vos données d'entraînement sont plus grandes que la RAM? –
Puis-je demander quelles sont vos données? –