分享

hadoop2.3请问这样创建的为什么是本地目录,而不是hdfs上的目录?

sstutu 发表于 2014-4-28 11:03:24 [显示全部楼层] 只看大图 回帖奖励 阅读模式 关闭右栏 7 26627
本帖最后由 sstutu 于 2014-4-28 11:09 编辑
       Configuration conf = new Configuration();
                FileSystem fs = FileSystem.get(conf);
                Path path = new Path("/user/");
                fs.mkdirs(path);
//                fs.delete(path);
                fs.close();
请问这样创建的为什么是本地目录,而不是hdfs上的目录?


欢迎加入about云群425860289432264021 ,云计算爱好者群,关注about云腾讯认证空间

已有(7)人评论

跳转到指定楼层
pig2 发表于 2014-4-28 11:04:30
本帖最后由 pig2 于 2014-4-28 11:06 编辑

配置不正确吧,看一下hdfs-site.xml文件
回复

使用道具 举报

sstutu 发表于 2014-4-28 11:07:40
本帖最后由 sstutu 于 2014-4-28 11:08 编辑

这是hdfs-site.xml文件,麻烦帮我看一下需要配置哪里

20140428110347.jpg
core-site.xml

  1. <property>
  2.         <name>hadoop.tmp.dir</name>
  3.         <value>/home/hadoop/hadoop/hadoop-2.3.0/tmp</value>
  4.         <description>hadoop存放数据的目录,即包括NameNode的数据,也包括DataNode的数据</description>
  5.     </property>
  6.     <property>
  7.         <name>fs.default.name</name>
  8.         <value>hdfs://192.168.1.181:9000</value>
  9.         <description>客户端连接HDFS时,默认的路径前缀</description>
  10.     </property>
  11.     <property>
  12.         <name>mapred.job.tracker</name>
  13.         <value>hdfs://localhost:9001</value>
  14.     </property>
复制代码



回复

使用道具 举报

pig2 发表于 2014-4-28 11:15:28
<value>hdfs://192.168.1.181:9000</value>
这个能访问吗?
回复

使用道具 举报

sstutu 发表于 2014-4-28 11:16:06
可以,集群正常运行,并且在eclipse里面可以正常连接,就是用这个ip和端口
回复

使用道具 举报

pig2 发表于 2014-4-28 11:16:57
本帖最后由 pig2 于 2014-4-28 11:19 编辑

这些配置文件有没有放到工程里,实在不行再添加一次配置
conf.addResource(name)name比如
conf.addResource(“hdfs-site.xml”)
conf.addResource(“core-site.xml”)

把几个配置手动添加进去



回复

使用道具 举报

sstutu 发表于 2014-4-28 11:20:01
ok,好了。谢谢
回复

使用道具 举报

perfri 发表于 2014-4-29 09:48:07
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条