2016-04-14 1 views
0

J'ai configuration scala, Hadoop & spark & a démarré le nœud maître avec succès. Je viens d'installer scala & spark & a également commencé le travailleur (esclave). Donc, ce que je suis confus est que Haddop ne devrait pas être installé dans l'ouvrier aussi pour exécuter des tâches?L'opérateur doit-il également avoir installé Hadoop pour Spark?

+1

Donc effectivement quelqu'un répond à votre question. Vous n'acceptez pas la réponse et pourtant vous changez complètement votre question. Si vous avez une nouvelle question, postez-la comme nouvelle question et ne changez pas le titre et les détails de la question. – eliasah

+0

désolé, j'ai édité pour éviter la duplication, mais la deuxième partie de la réponse est sur la construction d'étincelles, qui nécessitent hadoop. Mais mes deux questions concernaient si Hadoop est essentiel pour le maître et le travailleur. Plus tard, j'ai été capable de travailler sans Hadoop. Cela a causé la confusion et donc j'ai édité la question. – user2700022

Répondre

0

This Le lien de l'officiel Apache Spark montre comment configurer un cluster spark. Et les exigences sont clairement expliquées here que scala et hadoop sont nécessaires.

+0

Le deuxième lien que vous avez fourni concerne la création d'étincelles, ce que je n'ai pas l'intention de faire. J'ai utilisé la version complétée de spark sur master. J'ai installé seulement scala & spark & ​​essayé débutant travailleur qui a réussi. – user2700022