0

Je voudrais exécuter une application Tensorflow en utilisant plusieurs GPU sur Cloud ML.Est-ce que Google Cloud ML prend uniquement en charge Tensorflow distribué pour plusieurs jobs de formation GPU?

Ma demande tensorflow est écrit dans le paradigme non distribués, qui est décrit here

D'après ce que je comprends si je veux utiliser cloud ML pour exécuter cette même application, avec plusieurs GPU l'application doit utiliser l'échelle tier CUSTOM et j'ai besoin de configurer des serveurs de paramètres, des serveurs de travail qui semblent être un paradigme de tensorflow distribué. Est-ce la seule façon d'exécuter plusieurs tâches de formation GPU sur Cloud ML? Existe-t-il un guide qui m'aide à définir les modifications requises pour mon application d'entraînement multiGPU (tour) à une application tensorielle distribuée?

Répondre

1

Vous pouvez utiliser le niveau CUSTOM avec un seul nœud maître et aucun serveur de travail/paramètre. Ce sont des paramètres optionnels.

Alors complex_model_m_gpu a 4 GPU, et complex_model_l_gpu a 8.