Je suis nouveau sur Spark. Je suis en train d'exécuter le code suivant dans la coquille Spark:
import org.apache.spark.api.java.JavaSparkContext
import org.apache.hadoop.conf
JavaSparkContext context = new JavaSparkContext(conf);
Mais je reçois l'erreur suivante:
<console>:32: error: value context is not a member of object
org.apache.spark.api.java.JavaSparkContext
val $ires10 = JavaSparkContext.context
^
<console>:29: error: value context is not a member of object
org.apache.spark.api.java.JavaSparkContext
JavaSparkContext context = new JavaSparkContext(conf);
Y at-il une déclaration d'importation que je suis absent? J'ai également ajouté
import org.apache.spark.api.java.JavaSparkContext._
mais cela ne fonctionnait toujours pas. S'il vous plaît aider.
J'ai essayé cela plus tôt, mais j'ai eu une erreur en disant: 38: erreur: le paquet org.apache.hadoop.conf n'est pas une valeur –
PreethiS
C'est probablement parce que 'org.apache.hadoop.conf' est un paquet, pas une instance de configuration. Vous devez déterminer comment créer l'objet que vous passez au constructeur 'JavaSparkContext'. –