L'architecture Spark est entièrement basée sur le concept des exécuteurs et des coeurs. Je voudrais voir pratiquement combien d'exécuteurs et de cœurs s'exécutent pour mon application spark dans un cluster.Spark - Combien d'exécuteurs et de noyaux sont alloués à mon étincelle?
J'essayais d'utiliser l'extrait ci-dessous dans mon application, mais pas de chance.
val conf = new SparkConf().setAppName("ExecutorTestJob")
val sc = new SparkContext(conf)
conf.get("spark.executor.instances")
conf.get("spark.executor.cores")
Est-il possible d'obtenir ces valeurs à l'aide SparkContext
Objet ou SparkConf
objet etc ..
dans l'interface utilisateur Spark. Aller à http: //: 4040 et appuyez sur l'onglet "Executors". Cela varie entre les gestionnaires de cluster. –
Krishna, avez-vous pu obtenir? ne hésitez pas à poser des questions –
Avez-vous pu tester? –