2017-04-05 1 views

Répondre

0

Dans un cluster autonome, Spark gère uniquement les configurations de ressources prédéfinies de l'application avec le pool de ressources fourni. Pool de ressources combiné basé sur des exécuteurs qui ont ajouté des pépins au cluster. Le fil utilise des conteneurs et la limitation des ressources applique la configuration du conteneur qui définit l'allocation minimale et maximale du cœur et de la mémoire.

0

En YARN NodeManager est suivi de l'utilisation de la mémoire des exécuteurs d'étincelles et de les tuer si elles utilisent au-dessus spark.executor.memory

En cas de CPU, spark.executor.cores est la quantité de tâches simultanées exécuteur peut courir. Plus d'informations sur Spark Configuration Documentation

Vous pouvez activer cgroups in yarn et limiter l'utilisation du processeur ou les conteneurs YARN (exécuteurs d'étincelles).