Je suis en train pour régler mon cluster HPC (je l'utilise Sparklyr) et je tente de recueillir des spécifications importantes spécifiées par http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-2/:obtenir nombre de noeuds, le nombre de codes et RAM disponible pour le réglage
Pour espérons rendre tout cela un peu plus concret, voici un exemple de configuration d'une application Spark pour utiliser autant de cluster que possible: Imaginez un cluster avec six nœuds exécutant NodeManagers, chacun équipé de 16 cœurs et 64 Go de mémoire .
à savoir:
- nombre de nœuds
- nombre de cœurs espace disque
- et RAM
Je sais comment utiliser sinfo -n -l
mais je vois trop de cœurs et moi ne peut pas facilement obtenir cette information. Existe-t-il un moyen plus simple de connaître les spécifications globales de mon cluster?
En fin de compte, je suis en train de trouver des paramètres raisonnables pour --num-executors
--executor-cores
et --executor-memory
pourquoi le downvote? –
OK supprimé. pouvez-vous remanier à nouveau ~ –
Pas en haut, mais retiré vers le bas :) (- la plupart de vos 168 autres Qs forcent également les balises en titres) – pnuts