分享

集群删除节点问题

cwalet 发表于 2016-6-28 14:42:51 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 1 3967
本帖最后由 cwalet 于 2016-6-28 14:45 编辑

version:Hadoop 2.1.0-beta
hdfs-site.xml 中配置了:
[mw_shl_code=xml,true]<property>
        <name>dfs.hosts.exclude</name>
        <value>/usr/local/hadoop/etc/hadoop/exclude_list.txt</value>
</property>[/mw_shl_code]
hadoop Web界面显示:
:
193 (Decommissioned: 14)
:
0 (Decommissioned: 0)
:
0
Number of Under-Replicated Blocks
:
348351


请问如何确定这14台datanode上的HDFS数据已传输到其他节点上?
是否 Under-Replicated Blocks 同步完成后即表示可撤除exclude机器?

已有(1)人评论

跳转到指定楼层
qcbb001 发表于 2016-6-28 18:01:16
core-site.xml也配置下,所有节点的配置都需要更新并且执行命令

xxx@xxx-master:~$ sudo -u hdfs hadoop dfsadmin -refreshNodes



推荐参考
运行Hadoop的集群如何动态增加与删除节点
http://www.aboutyun.com/forum.php?mod=viewthread&tid=7532


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条