分享

hadoop集群多台datanode,只存活两个

bioger_hit 发表于 2014-10-14 12:34:03 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 2 8011
我创建了一个hadoop集群,1个namenode和11个datanode,服务启动后,用命令#hadoop dfsadmin -report查看,可用的datanode只有两个,如果手动将一个datanode的服务起来之后,#hadoop dfsadmin -report下可用的datanode会出现手动启动服务的那个,但是会将之前可用的挤掉一个,依然保持两个,请问是什么原因呢?求指教
欢迎加入about云群425860289432264021 ,云计算爱好者群,关注about云腾讯认证空间

已有(2)人评论

跳转到指定楼层
desehawk 发表于 2014-10-14 12:34:25
实体机还是虚拟机啊?
回复

使用道具 举报

bioger_hit 发表于 2014-10-14 12:34:51
虚拟机,用openstack做的
找到方法了,我将/home/mark/tmp/dfs下的data目录删除就好了

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条