J'ai installé CDH 5.4.7 sur mon cluster à 3 nœuds. Après avoir exécuté le premier travail sur Spark, j'ai vérifié la page d'historique des applications. Il a été écrit comme suitSpark History Server ne démarre pas
Event log directory: hdfs://****:8020/user/spark/applicationHistory
No completed applications found!
Did you specify the correct logging directory? Please verify your setting of
spark.history.fs.logDirectory and whether you have the permissions to access
it. It is also possible that your application did not run to completion or
did not stop the SparkContext.
J'ai vérifié HDFS et a constaté que /user/spark/applicationHistory
était déjà là. Mais il n'y avait pas d'entrée dans ce répertoire. Cela signifie qu'aucun journal n'a été écrit. Je cherchai la page de documentation de Cloudera et a trouvé l'article Managing the Spark History Server
sur le lien suivant
Comme décrit je l'ai ajouté une histoire Spark Server et a commencé. Exécuté les deux commandes pour mon utilisateur
$ sudo -u hdfs hadoop fs -chown -R spark:spark /user/spark
$ sudo -u hdfs hadoop fs -chmod 1777 /user/spark/applicationHistory
Cependant, quand j'ai essayé d'exécuter la commande suivante donne no such file or directory
erreur
$ cp /etc/spark/conf/spark-defaults.conf.template /etc/spark/conf/spark-defaults.conf
Alors, je suis allé le chemin /etc/spark
et énuméré les fichiers suivants à l'intérieur que . Elle a montré quelque chose comme ça
conf -> /etc/alternatives/spark-conf
Ni je pouvais créer dir nommé conf
parce qu'il est déjà là, ni je peux changer de répertoire pour /etc/spark/conf
également commande service spark-history-server start
donne erreur unrecognized service
.
Veuillez nous aider! Merci à l'avance