Dans certains codes Spark, j'ai vu que les programmeurs utilisent un tel code pour créer SparkContextComment obtenir HiveContext de JavaSparkContext
SparkSession session = SparkSession
.builder()
.appName("Spark Hive Example")
.config("spark.sql.warehouse.dir", warehouseLocation)
.enableHiveSupport()
.getOrCreate();
Mais j'ai toujours utilisé ce genre de code pour créer JavaSparkContext.
SparkConf sparkConf = new SparkConf().setAppName("Simple App").setMaster("local");
JavaSparkContext spark = new JavaSparkContext(sparkConf);
De la dernière partie du code, est-il possible que je pourrais obtenir un contexte Hive pour effectuer des opérations sur les tables Hive?
Merci!
Également avec SparkSession, je ne peux pas utiliser la méthode parallelize(). Toute alternative? Je ne comprends pas quand utiliser SparkSession et JavaSparkContext. Le guide de programmation Java d'Apache Spark utilise les deux selon leurs besoins. http://spark.apache.org/docs/latest/rdd-programming-guide.html –