J'ai une question concernant l'utilisation log4j
et son fichier de configuration log4j.properties
dans les travaux Java for Spark.Personnaliser log4j pour le travail d'étincelle apache dans le cluster EMR
J'ai joint le log4j.properties
avec mon fichier "jar" de travail Spark, après qu'il ait été envoyé au cluster EMR, mon application initialise le fichier log4j.properties.
Voici mon code exemple:
public static void initializeLogger() {
try {
Properties logProperties = new Properties();
logProperties.load(RddReadUtils.class.getClassLoader()
.getResourceAsStream("resources/log4j.properties"));
PropertyConfigurator.configure(logProperties);
} catch (IOException e) {
e.printStackTrace();
}
}
Sur ma machine locale, il fonctionne, ne fonctionne pas dans le cluster DME. Quelqu'un peut-il aider?
Merci beaucoup
êtes-vous exécution de ce code sur exécuteur testamentaire ou le pilote? vous pouvez également modifier le niveau de journalisation directement à l'aide de sparkContext. –
Pouvez-vous me montrer un exemple concernant le niveau de journal de changement directement en utilisant sparkcontext? parce que mon application étincelle fonctionnant dans le cluster EMR, la fonction main() exécute par Driver – user2953788
'sparkContext.setLogLevel (" DEBUG ")' –