2015-10-20 1 views
1

J'ai téléchargé l'étincelle précompilées pour Hadoop 2.4 et je reçois l'erreur suivante lorsque je tente de tirer un SparkContext en python:Spark 1.5 pour fonctionner sur mac locale

ClassNotFoundException: org.apache.spark.launcher.Main 

Le code suivant devrait être corriger:

import sys, os 
os.environ['SPARK_HOME'] = '/spark-1.5.1-bin-hadoop2.4/' 
sys.path.insert(0, '/spark-1.5.1-bin-hadoop2.4/python/') 
os.environ['PYTHONPATH'] = '/usr/local/Cellar/python/2.7.9/Frameworks/Python.framework/Versions/2.7/lib/python2.7/site-packages/' 
import pyspark 
from pyspark import SparkContext 
sc = SparkContext('local[2]') 

Répondre

0

Transforme mon problème était que le défaut JDK sur mon mac est Java 1.6 et Spark 1.5 tombé support de Java 1.6 (reference). J'ai mis à niveau vers Java 1.8 avec le installer from oracle, et il a résolu le problème.