分享

高效搭建Spark完全分布式集群

问题导读
1、如何高效安装Spark分布式集群?
2、如何安装Hadoop集群和scala?






写在前面一:
本文详细总结Spark分布式集群的安装步骤,帮助想要学习Spark的技术爱好者快速搭建Spark的学习研究环境。
1.jpg



写在前面二:
使用软件说明
1.jpg


约定,Spark相关软件存放目录:/usr/local/yujianxin/spark,

Hadoop相关软件存放目录: /home/yujianxin/hadoop。


Spark集群示意图
1.jpg



一、具体安装步骤
1、安装jdk

2、安装Hadoop集群,参考:hadoop2.2完全分布式最新高可靠安装文档

3、安装 Scala
  1. cd /usr/local/yujianxin/spark/
  2. tar -zxvf scala-2.9.3.tgz
复制代码

修改/etc/profile
1.jpg



4、安装Spark

4.1、修改/etc/profile
  1. cd /usr/local/yujianxin/spark/
  2. tar -zxvf spark-0.7.2-prebuilt-hadoop1.tgz
复制代码
1.jpg



4.2、配置Spark
4.2.1、修改配置文件spark-env.sh
  1. cd /usr/local/yujianxin/spark/spark-0.7.2/conf
  2. cp spark-env.sh.template spark-env.sh
  3. vi spark-env.sh
复制代码

1.jpg



4.2.2、修改配置文件slaves
1.jpg


至此,master节点上的Spark已配置完毕。把master上Spark相关配置copy到slave1、slave2中,注意,三台机器spark所在目录必须一致,因为master会登陆到worker上执行命令,master认为worker的spark路径与自己一样。


二、安装测试
2.1、通过命令行
  1. cd $SPARK_HOME/bin
  2. start-all.sh
复制代码

1.jpg



2.2、通过浏览器
1.jpg






已有(2)人评论

跳转到指定楼层
anyhuayong 发表于 2014-9-11 22:01:51
好文章必须回复
回复

使用道具 举报

dongnanyouwo 发表于 2014-9-12 08:49:07
不错,好东西。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条