2017-09-15 7 views
0

J'ai un code spark qui utilise brise. Je peux voir la version brise de mon projet:

$ gradle dependencies | grep breeze 
    | | +--- org.scalanlp:breeze_2.11:0.12 
    | | | +--- org.scalanlp:breeze-macros_2.11:0.12 
    +--- org.scalanlp:breeze_2.11:0.12 (*) 
    | | +--- org.scalanlp:breeze_2.11:0.12 
    | | | +--- org.scalanlp:breeze-macros_2.11:0.12 
    +--- org.scalanlp:breeze_2.11:0.12 (*) 
    | | +--- org.scalanlp:breeze_2.11:0.12 
    | | | +--- org.scalanlp:breeze-macros_2.11:0.12 
    +--- org.scalanlp:breeze_2.11:0.12 (*) 
| | | +--- org.scalanlp:breeze_2.11:0.12 
| | | | +--- org.scalanlp:breeze-macros_2.11:0.12 
| +--- org.scalanlp:breeze_2.11:0.12 (*) 
| | | +--- org.scalanlp:breeze_2.11:0.12 
| | | | +--- org.scalanlp:breeze-macros_2.11:0.12 
| +--- org.scalanlp:breeze_2.11:0.12 (*) 

La version de breeze incluse dans étincelle 2.1.1 est 0.12. Je peux voir cette recherche dans le répertoire des pots d'allumage:

spark-2.1.1-bin-hadoop2.4$ find . -name *.jar | grep breeze 
./jars/breeze_2.11-0.12.jar 
./jars/breeze-macros_2.11-0.12.jar 

Mais quand je soumets la tâche à susciter (même local) je reçois cette erreur:

java.lang.NoSuchMethodError: breeze.linalg.tile$.tile_DM_Impl2(Lscala/reflect/ClassTag;Lbreeze/storage/Zero;Lbreeze/generic/UFunc$InPlaceImpl2;)Lbreeze/generic/UFunc$UImpl2; 
    at mypackage.MyClass.calcOne(MyClass.scala:51) 
    at mypackage.MyClass$$anonfun$1.apply(MyClass.scala:36) 
    at mypackage.MyClass$$anonfun$1.apply(MyClass.scala:35) 
    at scala.collection.Iterator$$anon$11.next(Iterator.scala:409) 
    at scala.collection.Iterator$class.foreach(Iterator.scala:893) 
    at scala.collection.AbstractIterator.foreach(Iterator.scala:1336) 
    at scala.collection.TraversableOnce$class.foldLeft(TraversableOnce.scala:157) 
    at scala.collection.AbstractIterator.foldLeft(Iterator.scala:1336) 
    at scala.collection.TraversableOnce$class.fold(TraversableOnce.scala:212) 
    at scala.collection.AbstractIterator.fold(Iterator.scala:1336) 
    at org.apache.spark.rdd.RDD$$anonfun$fold$1$$anonfun$20.apply(RDD.scala:1044) 

La ligne de commande utilisée:

spark-2.1.1-bin-hadoop2.4/bin/spark-submit --class my.Main myjar.jar 

Répondre

0

trouvé le problème:

Mon SPARK_HOME environme La variable nt était réglée sur une ancienne version d'étincelle.

Alors bin/allumage classe recherchait des dépendances de pots dans cet autre chemin