分享

Hadoop2.4.1分布式集群部署(CentOS6.5-64bit)

导读:hadoop的搭建过程基本都是差不多了,如果你ba掌握了一个版本的搭建,其他版本都差不多是一样的,比如hadoop2.2完全分布式最新高可靠安装文档。同样如果对于hadoop的一些jar包,可以从hadoop家族、strom、spark、Linux、flume等jar包、安装包汇总下载(持续更新)中下载。对于hadoop2.4.1集群的搭建也是大同小异,hadoop2.4.1集群详细参考下面内容:







参考多个文档,终于把hadoop2.4.1集群环境搭建成功。因参考文档大多是hadoop2.2版本,所以在这里重新整理一份hadoop2.4.1版本的与大家分享。文档中如有错误的地方,欢迎大家留言指出,我看到后会第一时间确认修改。

1 任务
    在centos6.5-64bit上部署hadoop2.4.1分布式环境。


2 准备虚拟机
       我们不是土豪,没那么多机器给我们玩。没关系,我们使用虚拟机来部署。准备6台虚拟机,全部安装linux系统。centos、debian等都可以,但是这里用CentOS进行说明。1个maste节点,3个slave节点,另外加1个client节点用来部署nutch环境,给hdfs喂数据。最后1个monitor节点,后期用作部署监控平台,见下表:


主机名IP系统角色说明
master.hadoop192.168.122.100CentOS 6.5 64bitNameNode负责总管分布式数据和分解任务执行
slave1.hadoop192.168.122.101CentOS 6.5 64bit
DataNode负责分布式数据存储和任务的执行
slave2.hadoop
192.168.122.102CentOS 6.5 64bit
DataNode
负责分布式数据存储和任务的执行
slave3.hadoop
192.168.122.103Debian 7.5 64bit
DataNode
负责分布式数据存储和任务的执行
client.hadoop192.168.122.200CentOS 6.5 64bit
nutch solr 中文分词
利用Nutch网络爬虫给hdfs喂数据
monitor.hadoop192.168.122.201Debian 7.5 64bit
Ganglia
Nagios
监控




3 安装配置Hadoop

hadoop要求所有节点使用相同的用户、相同的目录结构部署(没有证实)。

不过我的理解:

1.使用相同的用户部署。这点比较好理解,master管理slave的时候需要登录slave节点执行脚本。如果用户不相同,脚本不能识别使用哪个用户登录slave节点。
2.不一定使用相同的路径。因为有环境变量来指向部署的路径,所以不用一定部署到相同的路径。但是如果部署路径不相同的话,管理部署不方便。所以还是尽量相同吧。



3.1 准备工作
    3.1.1 配置虚拟机IP地址和主机名
    根据上面的表格配置虚拟机ip和hostname,配置好以后在/etc/hosts文件添加以下解析。有条件配置了自己的DNS服务器的话,这步可以改成在DNS服务器中增加以下解析,然后所有节点DNS地址指向自己的DNS服务器IP。只要保证所有节点主机名称解析IP一致就达到目的了。


  1. 192.168.122.100    master.hadoop
  2. 192.168.122.101    slave1.hadoop
  3. 192.168.122.102    slave2.hadoop
  4. 192.168.122.103    slave3.hadoop
  5. 192.168.122.104    client.hadoop
  6. 192.168.122.105    monitor.hadoop
复制代码


    完成后验证每个节点是否都能够正确解析。


    3.1.2 创建用户
    所有节点创建hadoop用户,master节点与slave节点之间配置ssh无密码登录。
    完成后,在master.hadoop上ssh slave1.hadoop看看能否无密码登录成功。同样的测试master.hadoop到所有节点是否能够无密码登录成功。


    3.1.3 安装JDK
    这里我们选择下载linux x64版本的tar压缩包。 jdk-7u60-linux-x64.tar.gz  

   

  1. tar -zxvf jdk-7u60-linux-x64.tar.gz
  2. mv jdk1.7.0_60/ /usr/lib/
复制代码


vim /etc/profile 加入JAVA_HOME等环境变量

  1. export JAVA_HOME=/usr/lib/jdk1.7.0_60
  2. export JRE_HOME=/usr/lib/jdk1.7.0_60/jre
  3. export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
  4. export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
复制代码


source /etc/profile使环境变量生效,查看java版本。能够查看到版本号,说明JAVA环境配置成功了。

  1. [root@master ~]#source /etc/profile
  2. [root@master ~]#java -version
  3. java version "1.7.0_55"
  4. OpenJDK Runtime Environment (rhel-2.4.7.1.el6_5-x86_64 u55-b13)
  5. OpenJDK 64-Bit Server VM (build 24.51-b03, mixed mode)
复制代码
  
所有机器都要安装JDK。所有节点服务器的JDK使用相同的版本。



3.2 安装hadoop
    slave节点的配置跟master节点是一样的。所以我们只要部署好master节点,slave节点等master节点配置好以后scp拷贝或者rsync同步到slave节点就可以了。

     安装hadoop有两种方式,一种是下载hadoop二进制编译包。配置好环境变量。配置好hadoop配置文件就可以了。另外一种就是编译安装了。两种方式我都介绍一下,实际部署的时候选择其中一种就可以了。

    3.2.1 解压安装编译版
    下载tar包,并解压

  1. #wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.4.1/hadoop-2.4.1.tar.gz
  2. #tar zxvf hadoop-2.4.1.tar.gz
  3. #mv hadoop-2.4.1/  /opt/
  4. #cd /opt
  5. #chown -R hadoop.hadoop hadoop-2.4.1/
复制代码

配置环境变量vim /etc/profile,加入HADOOP_HOME等环境变量,其中注释掉的HADOOP_ROOT_LOGGER=DEBUG,console在调试时可以打开,打开后输出的DEBUG日志比较详细


  1. # HADOOP
  2. export HADOOP_HOME=/opt/hadoop
  3. export HADOOP_PREFIX=$HADOOP_HOME
  4. export HADOOP_COMMON_HOME=$HADOOP_PREFIX
  5. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_PREFIX/lib/native
  6. export HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop
  7. export HADOOP_HDFS_HOME=$HADOOP_PREFIX
  8. export HADOOP_MAPRED_HOME=$HADOOP_PREFIX
  9. export HADOOP_YARN_HOME=$HADOOP_PREFIX
  10. #export HADOOP_ROOT_LOGGER=DEBUG,console
  11. export LD_LIBRARY_PATH=$HADOOP_PREFIX/lib/native
  12. export PATH=$PATH:$HADOOP_HOME/bin
复制代码


需要注意的是,apache官方提供的编译版中的native library是32bit的。运行在64bit系统启动集群时会报WARN提示,要解决这个WARN有两个方法,一个是编译源码包,得到64bit的nativ library文件后替换原来的32bit文件。 另一个方法就是网上找别人编译好的64bit native library库文件,下载替换。

    3.2.2 编译安装源码版
    首先需要安装一些依赖包


  1. yum install lzo-devel zlib-devel gcc gcc-c++ autoconf automake libtool ncurses-devel openssl-devel cmake
复制代码


3.3 配置Hadoop

3.3.1 core-site.xml
  1. <configuration>
  2.     <property>
  3.         <name>hadoop.tmp.dir</name>
  4.         <value>/home/hadoop/tmp</value>
  5.         <description>Abase for other temporary directories.</description>
  6.     </property>
  7.     <property>
  8.         <name>fs.defaultFS</name>
  9.         <value>hdfs://master.hadoop:9000</value>
  10.     </property>
  11.     <property>
  12.         <name>io.file.buffer.size</name>
  13.         <value>4096</value>
  14.     </property>
  15. </configuration>
复制代码



3.3.2 hdfs-site.xml
  1. <configuration>
  2.     <property>
  3.         <name>dfs.nameservices</name>
  4.         <value>hadoop-cluster1</value>
  5.     </property>
  6.     <property>
  7.         <name>dfs.namenode.secondary.http-address</name>
  8.         <value>master.hadoop:50090</value>
  9.     </property>
  10.     <property>
  11.         <name>dfs.namenode.name.dir</name>
  12.         <value>file:///home/hadoop/dfs/name</value>
  13.     </property>
  14.     <property>
  15.         <name>dfs.datanode.data.dir</name>
  16.         <value>file:///home/hadoop/dfs/data</value>
  17.     </property>
  18.     <property>
  19.         <name>dfs.replication</name>
  20.         <value>3</value>
  21.     </property>
  22.     <property>
  23.         <name>dfs.webhdfs.enabled</name>
  24.         <value>true</value>
  25.     </property>
  26. </configuration>
复制代码



3.3.3 mapred-site.xml
  1. <configuration>
  2.     <property>
  3.         <name>mapreduce.framework.name</name>
  4.         <value>yarn</value>
  5.     </property>
  6.     <property>
  7.         <name>mapreduce.jobtracker.http.address</name>
  8.         <value>master.hadoop:50030</value>
  9.     </property>
  10.     <property>
  11.         <name>mapreduce.jobhistory.address</name>
  12.         <value>master.hadoop:10020</value>
  13.     </property>
  14.     <property>
  15.         <name>mapreduce.jobhistory.webapp.address</name>
  16.         <value>master.hadoop:19888</value>
  17.     </property>
  18. </configuration>
复制代码



3.3.4 yarn-site.xml
  1. <configuration>
  2.     <property>
  3.         <name>yarn.nodemanager.aux-services</name>
  4.         <value>mapreduce_shuffle</value>
  5.     </property>
  6.     <property>
  7.         <name>yarn.resourcemanager.address</name>
  8.         <value>master.hadoop:8032</value>
  9.     </property>
  10.     <property>
  11.         <name>yarn.resourcemanager.scheduler.address</name>
  12.         <value>master.hadoop:8030</value>
  13.     </property>
  14.     <property>
  15.         <name>yarn.resourcemanager.resource-tracker.address</name>
  16.         <value>master.hadoop:8031</value>
  17.     </property>
  18.     <property>
  19.         <name>yarn.resourcemanager.admin.address</name>
  20.         <value>master.hadoop:8033</value>
  21.     </property>
  22.     <property>
  23.         <name>yarn.resourcemanager.webapp.address</name>
  24.         <value>master.hadoop:8088</value>
  25.     </property>
  26. </configuration>
复制代码



3.3.5 slaves
  1. slave1.hadoop
  2. slave2.hadoop
  3. slave3.hadoop
复制代码





欢迎加入about云群90371779322273151432264021 ,云计算爱好者群,亦可关注about云腾讯认证空间||关注本站微信

已有(8)人评论

跳转到指定楼层
rola 发表于 2014-8-8 16:15:17
好像没有完啊?
回复

使用道具 举报

howtodown 发表于 2014-8-8 19:39:09
rola 发表于 2014-8-8 16:15
好像没有完啊?
整体式这样的,更详细可以参考这个hadoop2.2完全分布式最新高可靠安装文档
回复

使用道具 举报

qq358707654 发表于 2014-9-3 16:47:53
没完啊  我2.4.1伪分布式部署,jobtracker 始终启动不了、  不知道怎么回事
回复

使用道具 举报

move2city 发表于 2014-9-17 16:00:36
有个问题,我安装了2.5,运行了wordcount程序,但是好像看不到任何信息在8088的网页显示里,不知少了啥设置
回复

使用道具 举报

haorengoodman 发表于 2014-10-13 10:48:30
怎么没有配置hdfs的ha
回复

使用道具 举报

pig2 发表于 2014-10-14 10:32:27
qq358707654 发表于 2014-9-3 16:47
没完啊  我2.4.1伪分布式部署,jobtracker 始终启动不了、  不知道怎么回事

没有jobtracker 了
回复

使用道具 举报

bluebaby2006 发表于 2015-2-22 13:51:55
回复

使用道具 举报

贝格考克 发表于 2015-6-3 14:53:17
mapreduce.jobtracker.http.address这个配置项在hadoop2中有用吗?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条