分享

实战之Hadoop的HDFS扩容

sstutu 2014-1-21 23:18:43 发表于 小知识点 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 0 9732
Hadoop扩容是非常简单的事情。具体步骤如下:

  1.增加我们的硬件,在终端用如下命令查看,系统device的情况。
  1. fdisk -l  
复制代码
能够查看到各个硬盘(光驱、NFS等)的详细情况。具体的参数意义请参考http://linux.about.com/od/commands/l/blcmdl8_fdisk.htm
  2.由于是新增加的设备,需要将其格式化成为我们所需要的文件系统类型(ext3,ext4等),我们通常使用mkfs命令来实现,具体参数意义还请参考
http://linux.about.com/od/commands/l/blcmdl8_mkfs.htm格式化成为ext3文件系统,命令如下:
  1. # mkfs -t ext3 -c /dev/devicesnames
复制代码
3.这一步主要是将格式化之后的mount到HDFS的数据目录下。首先,使用vi或者emcas查看我们的Hadoop集群的${hadoop-home}/conf/hdfs-site.xml文件,其中的dfs.data.dir属性所设定的目录。如果该属性用final标签固定的,那么新增一个目录,不会被作业配置覆盖(除非namenode-format?)。因而,我们只将刚刚的设备挂靠到现有的目录下。我们的部分目录如下:
  1. /dm1/hdfs/Data,/dm2/hdfs/Data
复制代码
使用如下命令分别将设备mount到各个目录下
  1. mount /dev/device1  /dm1/hdfs/Data
复制代码
4. 修改/etc/fstab文件,在文件后面加上如下一行,使得系统启动的时候自动挂载新设备。
  1. /dev/device1 /dm1/hdfs/Data ext3 defaults 1 2
复制代码
5. 在${hadoop-home}/bin/hadoop 使用dfs -report命令可以马上看到新增的DFS容量。



欢迎加入about云群425860289432264021 ,云计算爱好者群,关注about云腾讯认证空间

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条