2017-01-17 4 views
1

J'ai créé un simple code Scala:Comment exécuter une méthode principale de Spark (en Databricks)

import org.apache.spark.SparkContext 
import org.apache.spark.SparkContext._ 
import org.apache.spark.SparkConf 

object app2 { 
    def main(args: Array[String]) { 
    val conf = new SparkConf().setAppName("Simple Application") 
    val sc = new SparkContext(conf) 
    println(s"This is a simple scala code v2 - it is running a Spark code.") 
    sc.stop() 
    } 
} 

ensuite compilé avec SBT qui a créé le fichier JAR.

a ensuite ajouté que JAR Spark portable avec:

sc.addJar("some/path") 

Comment puis-je exécuter (appeler) cette méthode principale (App2) à l'intérieur portable Databricks afin de voir la sortie de la commande « println »?

+0

(https://docs.cloud.databricks.com/docs/latest/databricks_guide/01%20Databricks%20Overview/06%20Jobs .html) –

Répondre

1

Merci 'Ronak'. Semble que ce soit une combinaison gagnante d'un code scala: [? A suivi cette]

/* app4.scala */ 
import org.apache.spark.SparkContext 
import org.apache.spark.SparkContext._ 
import org.apache.spark.SparkConf 

object app4 { 
    def main(args: Array[String]) { 
    val goodSparkContext = SparkContext.getOrCreate() 
    println(s"This is a simple scala code v4 - it is running a Spark code.") 
    } 
} 
+0

Comment cela répond-il à la question du PO? – Paul