J'utilise Spark 1.6.1 et Scala 2.10.5. J'essaie de lire le fichier csv à travers com.databricks. Lors du lancement de l'étincelle, j'utilise également les lignes suivantes:44: erreur: la valeur lue n'est pas membre de l'objet org.apache.spark.sql.SQLContext
spark-shell --packages com.databricks: spark-csv_2.10: 1.5.0 --driver-class-chemin d'accès à/sqljdbc4.jar et ci-dessous le code complet
import java.util.Properties
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
import org.apache.spark.sql.SQLContext
val conf = new SparkConf().setAppName("test").setMaster("local").set("spark.driver.allowMultipleContexts", "true");
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
import sqlContext.implicits._
val df = SQLContext.read().format("com.databricks.spark.csv").option("inferScheme","true").option("header","true").load("path_to/data.csv");
Je reçois ci-dessous erreur: -
erreur: valeur lue est pas membre de l'objet org.apache.spark.sql.SQLContext, et le «^"pointe vers" SQLContext.read(). format "dans le message d'erreur.
J'ai essayé les suggestions disponibles dans stackoverflow, ainsi que d'autres sites. mais rien ne semble fonctionner.
Mais maintenant, je reçois une autre erreur conf: org.apache.spark .SparkConf = [email protected] sc: org.apache.spark.SparkContext = [email protected] sqlContext: org.apache.spark.sql.SQLContext = org.apache.spark .sql.SQLContext @ 62d42eb7 java.lang.RuntimeException: Erreur dans la configuration de l'objet Que devrais-je en faire? – user3521180
@ user3521180 Il est associé à: http://stackoverflow.com/questions/30263646/sparksql-error-table-not-found. Il n'est pas lié à cette question et la résolution nécessitera plus d'informations - code complet et exception stacktrace - donc je suggère de poster une nouvelle question –
c'est un fil résolu maintenant – user3521180