分享

Hadoop完全分布式开发模式环境搭建-技术问题

top_gloria 发表于 2013-10-25 10:42:33 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 6 7631
[root@m141 hadoop]# cd bin
[root@m141 bin]# ls
hadoop             start-jobhistoryserver.sh
hadoop-config.sh   start-mapred.sh
hadoop-daemon.sh   stop-all.sh
hadoop-daemons.sh  stop-balancer.sh
rcc                stop-dfs.sh
slaves.sh          stop-jobhistoryserver.sh
start-all.sh       stop-mapred.sh
start-balancer.sh  task-controller
start-dfs.sh
[root@m141 bin]# hadoop dfsadmin -report
Warning: $HADOOP_HOME is deprecated.
12/04/04 13:43:36 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 0 time(s).
12/04/04 13:43:37 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 1 time(s).
12/04/04 13:43:38 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 2 time(s).
12/04/04 13:43:39 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 3 time(s).
12/04/04 13:43:40 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 4 time(s).
12/04/04 13:43:41 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 5 time(s).
12/04/04 13:43:42 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 6 time(s).
12/04/04 13:43:43 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 7 time(s).
12/04/04 13:43:44 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 8 time(s).
12/04/04 13:43:45 INFO ipc.Client: Retrying connect to server: 192.168.19.141/192.168.19.141:9000. Already tried 9 time(s).
Bad connection to DFS... command aborted.
-----------------------------------
这是SecureCRT下面的代码异常,相关SSH和Hadoop配置文件已经完成,而且Hadoop运行成功,但是在主节点查看Hadoop状态时出现此异常。网上的解决方式大多是删除节点下面的数据,然后reboot,尝试了一下,没有成功,现在此该如何解决,求高手解答!

已有(6)人评论

跳转到指定楼层
kaif22 发表于 2013-10-25 10:42:33
没有人回帖!

回复

使用道具 举报

yuanqingyu0123 发表于 2013-10-25 10:42:33
解决,可能是在查看状态前未启动所有的节点!
回复

使用道具 举报

yunjisuanxue 发表于 2013-10-25 10:42:33
把ip地址改为主节点的主机名称就没了,话说楼主有遇到dfs容量一直为0kb的吗,datanode就是一直连接不了namenode,但是从datanode ssh登录到namenode没有吗?
回复

使用道具 举报

wscl1213 发表于 2013-10-25 10:42:33
把ip地址改为主节点的主机名称就没了,话说楼主有遇到dfs容量一直为0kb的吗,datanode就是一直连接不了namenode,但是从datanode ssh登录到namenode没有吗?
回复

使用道具 举报

ruanhero 发表于 2013-10-25 10:42:33
namenode format 了木有内吗?
回复

使用道具 举报

yaojiank 发表于 2013-10-25 10:42:33
INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s).原因:由于 dfs 的部分文件默认保存在tmp文件夹,在系统重启时被删除。解决:修改core-site.xml 的 hadoop.tmp.dir配置文件路径:/home/hadoop/tmp。
其实很多种错误,我尝试过很多,我有时遇到解决了,有一次遇到了,到处论坛,网页,满大街都没找到方法,最后是重装的hadoop包,在重新发给datanode......够悲催的,可以baidu,google下,很多。真心希望你能解决.....
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条