分享

Apache Spark源码走读之12 -- Hive on Spark运行环境搭建

本帖最后由 pig2 于 2015-1-6 14:14 编辑

问题导读

  如何搭建Hive On Spark的测试环境?










楔子

Hive是基于Hadoop的开源数据仓库工具,提供了类似于SQL的HiveQL语言,使得上层的数据分析人员不用知道太多MapReduce的知识就能对存储于Hdfs中的海量数据进行分析。由于这一特性而收到广泛的欢迎。

Hive的整体框架中有一个重要的模块是执行模块,这一部分是用Hadoop中MapReduce计算框架来实现,因而在处理速度上不是非常令人满意。由于Spark出色的处理速度,有人已经成功将HiveQL的执行利用Spark来运行,这就是已经非常闻名的Shark开源项目。

在Spark 1.0中,Spark自身提供了对Hive的支持。本文不准备分析Spark是如何来提供对Hive的支持的,而只着重于如何搭建Hive On Spark的测试环境。

安装概览

整体的安装过程分为以下几步
  • 搭建Hadoop集群 (整个cluster由3台机器组成,一台作为Master,另两台作为Slave)
  • 编译Spark 1.0,使其支持Hadoop 2.4.0和Hive
  • 运行Hive on Spark的测试用例 (Spark和Hadoop Namenode运行在同一台机器)

Hadoop集群搭建

创建虚拟机

创建基于kvm的虚拟机,利用libvirt提供的图形管理界面,创建3台虚拟机,非常方便。内存和ip地址分配如下
  • master 2G    192.168.122.102
  • slave1  4G    192.168.122.103
  • slave2  4G    192.168.122.104

在虚拟机上安装os的过程就略过了,我使用的是arch linux,os安装完成之后,确保以下软件也已经安装
  • jdk
  • openssh

创建用户组和用户

在每台机器上创建名为hadoop的用户组,添加名为hduser的用户,具体bash命令如下所示

  1. groupadd hadoop
  2. useradd -b /home -m -g hadoop hduser
  3. passwd hduser
复制代码

无密码登录

在启动slave机器上的datanode或nodemanager的时候需要输入用户名密码,为了避免每次都要输入密码,可以利用如下指令创建无密码登录。注意是从master到slave机器的单向无密码。

  1. cd $HOME/.ssh
  2. ssh-keygen -t dsa
复制代码

将id_dsa.pub复制为authorized_keys,然后上传到slave1和slave2中的$HOME/.ssh目录
  1. cp id_dsa.pub authorized_keys
  2. #确保在slave1和slave2机器中,hduser的$HOME目录下已经创建好了.ssh目录
  3. scp authorized_keys slave1:$HOME/.ssh
  4. scp authorized_keys slave2:$HOME/.ssh
复制代码

更改每台机器上的/etc/hosts

在组成集群的master, slave1和slave2中,向/etc/hosts文件添加如下内容

  1. 192.168.122.102 master
  2. 192.168.122.103 slave1
  3. 192.168.122.104 slave2
复制代码

如果更改完成之后,可以在master上执行ssh slave1来进行测试,如果没有输入密码的过程就直接登录入slave1就说明上述的配置成功。

下载hadoop 2.4.0

以hduser身份登录master,执行如下指令

  1. cd /home/hduser
  2. wget http://mirror.esocc.com/apache/hadoop/common/hadoop-2.4.0/hadoop-2.4.0.tar.gz
  3. mkdir yarn
  4. tar zvxf hadoop-2.4.0.tar.gz -C yarn
复制代码

修改hadoop配置文件

添加如下内容到.bashrc
  1. export HADOOP_HOME=/home/hduser/yarn/hadoop-2.4.0
  2. export HADOOP_MAPRED_HOME=$HADOOP_HOME
  3. export HADOOP_COMMON_HOME=$HADOOP_HOME
  4. export HADOOP_HDFS_HOME=$HADOOP_HOME
  5. export YARN_HOME=$HADOOP_HOME
  6. export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  7. export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
复制代码

修改$HADOOP_HOME/libexec/hadoop-config.sh
在hadoop-config.sh文件开头处添加如下内容
  1. export JAVA_HOME=/opt/java
复制代码


$HADOOP_CONF_DIR/yarn-env.sh
在yarn-env.sh开头添加如下内容
  1. export JAVA_HOME=/opt/java
  2. export HADOOP_HOME=/home/hduser/yarn/hadoop-2.4.0
  3. export HADOOP_MAPRED_HOME=$HADOOP_HOME
  4. export HADOOP_COMMON_HOME=$HADOOP_HOME
  5. export HADOOP_HDFS_HOME=$HADOOP_HOME
  6. export YARN_HOME=$HADOOP_HOME
  7. export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  8. export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
复制代码


xml配置文件修改
文件1: $HADOOP_CONF_DIR/core-site.xml
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4.   <property>
  5.     <name>fs.default.name</name>
  6.     <value>hdfs://master:9000</value>
  7.   </property>
  8.   <property>
  9.     <name>hadoop.tmp.dir</name>
  10.     <value>/home/hduser/yarn/hadoop-2.4.0/tmp</value>
  11.   </property>
  12. </configuration>
复制代码

文件2: $HADOOP_CONF_DIR/hdfs-site.xml
  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4.    <property>
  5.      <name>dfs.replication</name>
  6.      <value>2</value>
  7.    </property>
  8.    <property>
  9.      <name>dfs.permissions</name>
  10.      <value>false</value>
  11.    </property>
  12. </configuration>
复制代码


文件3: $HADOOP_CONF_DIR/mapred-site.xml
  1. <?xml version="1.0"?>
  2. <configuration>
  3. <property>
  4.    <name>mapreduce.framework.name</name>
  5.    <value>yarn</value>
  6. </property>
  7. </configuration>
复制代码

文件4: $HADOOP_CONF_DIR/yarn-site.xml
  1. <?xml version="1.0"?>
  2. <configuration>
  3.   <property>
  4.     <name>yarn.nodemanager.aux-services</name>
  5.     <value>mapreduce_shuffle</value>
  6.   </property>
  7.   <property>
  8.     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  9.     <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  10.   </property>
  11.   <property>
  12.     <name>yarn.resourcemanager.resource-tracker.address</name>
  13.     <value>master:8025</value>
  14.   </property>
  15.   <property>
  16.     <name>yarn.resourcemanager.scheduler.address</name>
  17.     <value>master:8030</value>
  18.   </property>
  19.   <property>
  20.     <name>yarn.resourcemanager.address</name>
  21.     <value>master:8040</value>
  22.   </property>
  23. </configuration>
复制代码


文件5: $HADOOP_CONF_DIR/slaves
在文件中添加如下内容
  1. slave1
  2. slave2
复制代码

创建tmp目录
在$HADOOP_HOME下创建tmp目录
  1. mkdir $HADOOP_HOME/tmp
复制代码

复制yarn目录到slave1和slave2
刚才所作的配置文件更改发生在master机器上,将整个更改过的内容全部复制到slave1和slave2。
  1. for target in slave1 slave2
  2. do
  3.     scp -r yarn $target:~/
  4.     scp $HOME/.bashrc $target:~/
  5. done
复制代码
批量处理是不是很爽

格式化namenode
在master机器上对namenode进行格式化
  1. bin/hadoop namenode -format
复制代码

启动cluster集群
  1. sbin/hadoop-daemon.sh start namenode
  2. sbin/hadoop-daemons.sh start datanode
  3. sbin/yarn-daemon.sh start resourcemanager
  4. sbin/yarn-daemons.sh start nodemanager
  5. sbin/mr-jobhistory-daemon.sh start historyserver
复制代码

注意: daemon.sh表示只在本机运行,daemons.sh表示在所有的cluster节点上运行。

验证hadoop集群安装正确与否
跑一个wordcount示例,具体步骤不再列出,可参考本系列中的第11篇

编译Spark 1.0
Spark的编译还是很简单的,所有失败的原因大部分可以归结于所依赖的jar包无法正常下载。
为了让Spark 1.0支持hadoop 2.4.0和hive,请使用如下指令编译
  1. SPARK_HADOOP_VERSION=2.4.0 SPARK_YARN=true   SPARK_HIVE=true sbt/sbt assembly
复制代码

如果一切顺利将会在assembly目录下生成 spark-assembly-1.0.0-SNAPSHOT-hadoop2.4.0.jar

创建运行包
编译之后整个$SPARK_HOME目录下所有的文件体积还是很大的,大概有两个多G。有哪些是运行的时候真正需要的呢,下面将会列出这些目录和文件。
  • $SPARK_HOME/bin
  • $SPARK_HOME/sbin
  • $SPARK_HOME/lib_managed
  • $SPARK_HOME/conf
  • $SPARK_HOME/assembly/target/scala-2.10
将上述目录的内容复制到/tmp/spark-dist,然后创建压缩包
  1. mkdir /tmp/spark-dist
  2. for i in $SPARK_HOME/{bin,sbin,lib_managed,conf,assembly/target/scala-2.10}
  3. do
  4.   cp -r $i /tmp/spark-dist
  5. done
  6. cd /tmp/
  7. tar czvf spark-1.0-dist.tar.gz spark-dist
复制代码

上传运行包到master机器
将生成的运行包上传到master(192.168.122.102)
  1. scp spark-1.0-dist.tar.gz hduser@192.168.122.102:~/
复制代码

运行hive on spark测试用例
经过上述重重折磨,终于到了最为紧张的时刻了。
以hduser身份登录master机,解压spark-1.0-dist.tar.gz
  1. #after login into the master as hduser
  2. tar zxvf spark-1.0-dist.tar.gz
  3. cd spark-dist
复制代码

更改conf/spark-env.sh
  1. export SPARK_LOCAL_IP=127.0.0.1
  2. export SPARK_MASTER_IP=127.0.0.1
复制代码

运行最简单的example
用bin/spark-shell指令启动shell之后,运行如下scala代码
  1. val sc: SparkContext // An existing SparkContext.
  2. val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
  3. // Importing the SQL context gives access to all the public SQL functions and implicit conversions.
  4. import hiveContext._
  5. hql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)")
  6. hql("LOAD DATA LOCAL INPATH 'examples/src/main/resources/kv1.txt' INTO TABLE src")
  7. // Queries are expressed in HiveQL
  8. hql("FROM src SELECT key, value").collect().foreach(println)
复制代码
如果一切顺利,最后一句hql会返回key及value


相关内容


Apache Spark源码走读之1 -- Spark论文阅读笔记

Apache Spark源码走读之2 -- Job的提交与运行

Apache Spark源码走读之3-- Task运行期之函数调用关系分析

Apache Spark源码走读之4 -- DStream实时流数据处理

Apache Spark源码走读之5-- DStream处理的容错性分析

Apache Spark源码走读之6-- 存储子系统分析

Apache Spark源码走读之7 -- Standalone部署方式分析

Apache Spark源码走读之8 -- Spark on Yarn

Apache Spark源码走读之9 -- Spark源码编译

Apache Spark源码走读之10 -- 在YARN上运行SparkPi

Apache Spark源码走读之11 -- sql的解析与执行


Apache Spark源码走读之13 -- hiveql on spark实现详解

Apache Spark源码走读之14 -- Graphx实现剖析

Apache Spark源码走读之15 -- Standalone部署模式下的容错性分析

Apache Spark源码走读之16 -- spark repl实现详解

Apache Spark源码走读之17 -- 如何进行代码跟读

Apache Spark源码走读之18 -- 使用Intellij idea调试Spark源码

Apache Spark源码走读之19 -- standalone cluster模式下资源的申请与释放

Apache Spark源码走读之20 -- ShuffleMapTask计算结果的保存与读取

Apache Spark源码走读之21 -- WEB UI和Metrics初始化及数据更新过程分析

Apache Spark源码走读之22 -- 浅谈mllib中线性回归的算法实现

Apache Spark源码走读之23 -- Spark MLLib中拟牛顿法L-BFGS的源码实现

Apache Spark源码走读之24 -- Sort-based Shuffle的设计与实现

本文转自徽沪一郎http://www.cnblogs.com/hseagle/p/3758922.html
欢迎加入about云群90371779322273151432264021 ,云计算爱好者群,亦可关注about云腾讯认证空间||关注本站微信

已有(1)人评论

跳转到指定楼层
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条