2017-10-16 12 views
0

j'ai écrit ces lignes de code à Scala 2,11 en Databricks:erreur Graphframe Scala/Spark

import org.graphframes._ 

val user_ridotto = sqlContext.sql("SELECT * FROM userRidotto") 

var users_1 = user_ridotto.select("user_id", "name", "city", "num_fr", 
"fans", "review_count", "importance").withColumnRenamed("user_id", "id") 
val users = users_1.withColumn("ridotto", lit("ridotto")) 
var edges_1 = user_ridotto.select($"user_id" as "src", explode($"friends") 
as 
"dst", lit(1)) 
val graph_1 = GraphFrame(users, edges_1) 
println("users: " + users.count + ", archi_1: " + edges_1.count) 

val paths = graph_1.find("(a)-[e]->(b)") 
.filter("a.ridotto='ridotto'") 
.filter("b.ridotto='ridotto'") 
val edges = paths.select("e.src", "e.dst") 
val graph = GraphFrame(graph_1.vertices, edges) 
println("users: " + users.count + ", archi: " + edges.count) 

mais il me renvoie ces erreurs:

portable: 1: Erreur: graphframes objet est pas membre org paquet importation org.graphframes._ ^ bloc-notes: 8: erreur: non trouvée: valeur GraphFrame val = graph_1 GraphFrame (utilisateurs, edges_1) ^ bloc-notes: 15: erreur: non trouvée: valeur GraphFrame val graph = GraphFrame (graph_1.vertices, bords)

Quelqu'un peut-il m'aider?

Merci à l'avance Sincèrement Antonio

Répondre

0

la bibliothèque ne loded naitively, vous devez donc importer le fichier jar dans les bibliothèques. vous pouvez importer le fichier sous l'espace de travail (il devrait y avoir une boîte de message qui vous permet d'importer des fichiers jar spécifiquement) et ensuite l'attacher. Une fois que vous attacher besoin de redémarrer le cluster

vous pouvez obtenir le fichier jar à: graphframes