J'utilise groupe autonome sur mes fenêtres locales et en essayant de charger les données d'un de notre serveur en utilisant le code suivant -Pas en mesure de se connecter à postgres en utilisant jdbc en coquille pyspark
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
df = sqlContext.load(source="jdbc", url="jdbc:postgresql://host/dbname", dbtable="schema.tablename")
J'ai mis le SPARK_CLASSPATH comme -
os.environ['SPARK_CLASSPATH'] = "C:\Users\ACERNEW3\Desktop\Spark\spark-1.3.0-bin-hadoop2.4\postgresql-9.2-1002.jdbc3.jar"
Pendant l'exécution sqlContext.load, il jette erreur la mention "Aucun pilote approprié trouvé pour jdbc: postgresql". J'ai essayé de chercher sur le web, mais je n'ai pas trouvé de solution.
Son "Aucun pilote approprié trouvé pour jdbc: postgresql" seulement .. question mise à jour. –
Bien dans ce cas, le fichier jar requis avec le pilote n'est pas disponible. –
fichier jar requis est présent, mais de toute façon SPARK n'est pas capable de le reconnaître. Il existe un problème concernant SPARK_CLASSPATH. Je ne suis pas sûr sur la façon de définir le SPARK_CLASSPATH. –