J'essaie d'intégrer les métriques de job de Spark 2.1 à Ganglia.Comment intégrer Ganglia pour Spark 2.1 Statistiques de travail, Spark ignorant les métriques de Ganglia
Mon étincelle default.conf ressemble
*.sink.ganglia.class org.apache.spark.metrics.sink.GangliaSink
*.sink.ganglia.name Name
*.sink.ganglia.host $MASTERIP
*.sink.ganglia.port $PORT
*.sink.ganglia.mode unicast
*.sink.ganglia.period 10
*.sink.ganglia.unit seconds
Quand je soumets mon travail je peux voir les avertir
Warning: Ignoring non-spark config property: *.sink.ganglia.host=host
Warning: Ignoring non-spark config property: *.sink.ganglia.name=Name
Warning: Ignoring non-spark config property: *.sink.ganglia.mode=unicast
Warning: Ignoring non-spark config property: *.sink.ganglia.class=org.apache.spark.metrics.sink.GangliaSink
Warning: Ignoring non-spark config property: *.sink.ganglia.period=10
Warning: Ignoring non-spark config property: *.sink.ganglia.port=8649
Warning: Ignoring non-spark config property: *.sink.ganglia.unit=seconds
Mes coordonnées de l'environnement sont
Hadoop : Amazon 2.7.3 - emr-5.7.0
Spark : Spark 2.1.1,
Ganglia: 3.7.2
Si vous avez toutes les entrées ou toute autre alternative de Ganglia s'il vous plaît répondre.
Je l'ai utilisé Spark DME avec l'installation Ganglia j'espère, qui comprend le paquet mais son ignorant la configuration métrique. –