2017-10-21 89 views
2

Comment programmer keras ou tensorflow pour partitionner l'entraînement sur plusieurs GPU, disons que vous êtes dans une instance ecao amaozn qui a 8 GPU et que vous voulez les utiliser tous pour vous entraîner plus rapidement, mais votre code est juste pour un seul processeur ou GPU?Entraînement d'un modèle avec plusieurs GPU

+0

C'est un peu large pour ce site. Vous nous demandez de concevoir votre solution pour vous. https://stackoverflow.com/help/how-to-ask – jdv

Répondre

2

Oui, vous pouvez exécuter des modèles Keras sur plusieurs GPU. Ceci n'est possible qu'avec le backend TensorFlow pour le moment, car la fonctionnalité Theano est encore assez récente. Nous envisageons d'ajouter un support pour le multi-gpu dans Theano dans un proche avenir (cela devrait être assez simple). Avec le backend TensorFlow, vous pouvez réaliser ceci de la même manière que dans le TensorFlow pur: en utilisant la portée tf.device (d) lors de la définition des couches de Keras.

Originaire de here

+1

En complément de cette réponse, vous pouvez suivre les réponses dans le lien suivant. L'idée est de définir 'avec tf.device ('/ gpu: 0'):', ou 'avec tf.device ('/ gpu: 1')', etc. pour chaque groupe de calques. https://stackoverflow.com/questions/46366216/tensorflow-is-it-possible-to-manually-decide-which-tensors-in-a-graph-go-to-th –

+0

@ DanielMöller: Merci! –