時間:2018-06-24 來源:互聯網 瀏覽量:
版本說明
jdk:1.8
scala:2.11.8
spark:2.3.0
hadoop:2.8.3
環境準備
jdk配置
1、配置JAVA_HOME與Path:
Path
2、驗證配置:
scala安裝與配置
1、scala下載:
訪問官方地址http://www.scala-lang.org/download/2.11.8.html
2、配置Path:
3、驗證配置:
Spark安裝與配置
1、spark下載:
訪問官方地址http://spark.apache.org/downloads.html
選中官方推薦的地址即可下載,其他地址也可用(建議采用迅雷等下載工具下載,速度比較會快很多)
2、解壓至D盤;
3、配置Path:
4、通過spark-shell進入Spark的交互式命令行模式:
如上,可以看到對應的spark、scala、java版本,同時也看到了異常信息,該異常信息是由於hadoop導致的,下麵來配置hadoop。
Hadoop安裝與配置
1、hadoop下載
訪問官方http://hadoop.apache.org/releases.html
進入下載頁,如下建議地址(同樣建議用迅雷等下載工具下載,速度更快)
2、解壓至
3、配置HADOOP_HOME&Path:
path:
4、winutils下載:https://github.com/steveloughran/winutils
下載對應版本的bin目錄直接替換本地bin目錄即可。
5、此時繼續spark-shell進入spark命令行交互模式:
此時即不會出現上述的異常提示。
6、訪問控製台中的webui如下: