您的当前位置:首页正文

spark部署

来源:一二三四网


spark部署

2014年7月9日

18:35

1. 所有主机:将scala和spark安装包解压到/usr/local下,并配置环境变量:

注意:

1. 需要下载和hadoop版本对应的spark

2. 执行source /etc/profile

2. 配置spark,先在主节点配置,然后拷贝至所有节点

a. 配置spark-env.sh,需要先拷贝出一个该文件:

注意:spark主节点默认端口8080,如果主节点部署有tomcat,需要将主节点端口该一下:export SPARK_MASTER_WEBUI_PORT=8089

2. 配置slave文件,将所有从节点添加进去,一个一行,这里把所有主机(包括

主节点)都写上了

3.

将所有配置拷贝到所有节点

4. 启动、停止spark:sbin/start-all.sh、sbin/stop-all.sh,可以在http://主节

点IP:8080/ 查看spark集群情况

因篇幅问题不能全部显示,请点此查看更多更全内容

Top