Spark是Hadoop的子項目。 因此,最好將Spark安裝到基于Linux的系統(tǒng)中。 以下步驟說明如何安裝Apache Spark。
$java -version
如果Java已經(jīng),安裝在系統(tǒng)上,你能看到以下響應
java version "1.7.0_71" Java(TM) SE Runtime Environment (build 1.7.0_71-b13) Java HotSpot(TM) Client VM (build 25.0-b02, mixed mode)
如果您沒有在系統(tǒng)上安裝Java,請在繼續(xù)下一步之前安裝Java。
$scala -version
如果Scala是已經(jīng)安裝在系統(tǒng)中,你能看到以下響應
Scala code runner version 2.11.6 -- Copyright 2002-2013, LAMP/EPFL如果您沒有在系統(tǒng)上安裝Scala,請繼續(xù)執(zhí)行Scala安裝的下一步。
$ tar xvf scala-2.11.6.tgz
移動Scala軟件文件
$ tar xvf scala-2.11.6.tgz
移動Scala軟件文件
使用以下命令將Scala軟件文件移動到相應的目錄(/ usr / local / scala)。
$ su – Password: # cd /home/Hadoop/Downloads/ # mv scala-2.11.6 /usr/local/scala # exit
為Scala設置PATH
使用以下命令設置Scala的PATH。
$ export PATH = $PATH:/usr/local/scala/bin
驗證Scala安裝
安裝后,最好驗證它。 使用以下命令驗證Scala安裝。$scala -version
如果Scala是已經(jīng)安裝在系統(tǒng)中,你能看到以下響應
Scala code runner version 2.11.6 -- Copyright 2002-2013, LAMP/EPFL
$ tar xvf spark-1.3.1-bin-hadoop2.6.tgz
移動Spark tar軟件文件
以下命令用于將Spark軟件文件移動到相應的目錄(/ usr / local / spark)。
$ su – Password: # cd /home/Hadoop/Downloads/ # mv spark-1.3.1-bin-hadoop2.6 /usr/local/spark # exit設置Spark的環(huán)境
export PATH = $PATH:/usr/local/spark/bin
使用以下命令獲取?/ .bashrc文件。
$ source ~/.bashrc
$spark-shell
如果spark安裝成功,那么您將找到以下輸出。
Spark assembly has been built with Hive, including Datanucleus jars on classpath Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 15/06/04 15:25:22 INFO SecurityManager: Changing view acls to: hadoop 15/06/04 15:25:22 INFO SecurityManager: Changing modify acls to: hadoop disabled; ui acls disabled; users with view permissions: Set(hadoop); users with modify permissions: Set(hadoop) 15/06/04 15:25:22 INFO HttpServer: Starting HTTP Server 15/06/04 15:25:23 INFO Utils: Successfully started service 'HTTP class server' on port 43292. Welcome to ____ __ / __/__ ___ _____/ /__ _ / _ / _ `/ __/ '_/ /___/ .__/\_,_/_/ /_/\_ version 1.4.0 /_/ Using Scala version 2.10.4 (Java HotSpot(TM) 64-Bit Server VM, Java 1.7.0_71) Type in expressions to have them evaluated. Spark context available as sc scala>
更多建議: