2017-10-18 11 views
1

J'ai mon code scala fonctionnant en étincelle se connectant à Neo4j sur mon mac. Je voulais le tester sur ma machine windows mais ne peut pas sembler le faire fonctionner, je continue à obtenir l'erreur:Neo4j Erreur connecteur Spark: import.org.neo4j.spark._ objet neo4j ne se trouve pas dans le paquet org

Spark context Web UI available at http://192.168.43.4:4040 
Spark context available as 'sc' (master = local[*], app id = local-1508360735468). 
Spark session available as 'spark'. 
Loading neo4jspark.scala... 
<console>:23: error: object neo4j is not a member of package org 
     import org.neo4j.spark._ 
      ^

Ce qui donne des erreurs suivantes de:

changeScoreList: java.util.List[Double] = [] 
<console>:87: error: not found: value neo 
         val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame 
             ^
<console>:120: error: not found: value neo 

Je ne sais pas ce que je fais mal, je l'exécuter comme ceci:

spark-shell --conf spark.neo4j.bolt.password=TestNeo4j --packages neo4j-contrib:neo4j-spark-connector:2.0.0-M2,graphframes:graphframes:0.2.0-spark2.0-s_2.11 -i neo4jspark.scala 

dit qu'il trouve toutes les dépendances mais le code génère l'erreur lors de l'utilisation néo. Vous ne savez pas quoi d'autre essayer? Je ne sais pas pourquoi cela ne fonctionne pas sur ma boîte de Windows et fait mon mac. version Spark 2.2 même, Neo4j et en cours d'exécution mêmes versions, scala aussi, même java (sauf pour quelques révisions mineures différences de version)

Répondre

1

Ceci est un connu issue (avec un afférant here), le fix pour ce qui est partie de la version 2.2.1 de Spark.

+0

ahh okay (j'avais déjà travaillé sur windows), donc je suppose que j'ai besoin d'ajouter ces jars au chemin de la classe pour contourner le problème? – Codejoy

+0

J'ai reçu la dernière version et l'ai essayée, mais j'ai quand même eu les erreurs. Ai-je besoin de trouver ces bocaux manuellement et de les déplacer vers le classpath de mes fenêtres? – Codejoy

+0

@Codejoy: Spark 2.2.1 n'a pas encore été publié. – chunjef