分享

Hadoop Eclipse环境搭建不起来,MapReduce location status updater

wjcaitu 发表于 2017-1-14 21:54:00 [显示全部楼层] 只看大图 回帖奖励 阅读模式 关闭右栏 4 13039
按照网上的教程想搭建一套eclipse的开发环境。结果碰到如图所示问题。
以下是我的配置信息:
core-site.xml:
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>http://192.168.1.9:9000</value>
    </property>
        
        <property>
          <name>hadoop.tmp.dir</name>
          <value>/soft/hadoop/hdfs-dir</value>
         </property>
</configuration>


mapred-site.xml:
<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
        <property>
          <name>mapred.job.tracker</name>
          <value>192.168.1.9:9001</value>
         </property>
</configuration>
hadoop.jpg
hd2.jpg

我找了一圈,虽然大多数人出现了这个问题,但是原因都不是org/apache/hadoop/mapored/JobConf这个原因,请问大家有何高见。

已有(4)人评论

跳转到指定楼层
wjcaitu 发表于 2017-1-14 21:54:42
希望大家帮帮我,我已经弄了2天了,在centos的虚拟机上也同样出现该问题,快奔溃了
回复

使用道具 举报

wjcaitu 发表于 2017-1-14 21:57:42
请问有人知道吗
回复

使用道具 举报

nextuser 发表于 2017-1-15 08:35:53
<property>
        <name>fs.defaultFS</name>
        <value>http://192.168.1.9:9000</value>
    </property>

        <property>
          <name>hadoop.tmp.dir</name>
          <value>/soft/hadoop/hdfs-dir</value>
         </property>

这两个配置项不正确。
可以改为:
hdfs://192.168.1.9:9000和file:///soft/hadoop/hdfs-dir,并且注意权限


可对比参考下面两篇文章
about云日志分析项目准备:Hadoop2.x集群安装及常见配置项说明

about云日志分析项目准备6:Hadoop、Spark集群搭建

回复

使用道具 举报

wjcaitu 发表于 2017-1-15 09:49:50
nextuser 发表于 2017-1-15 08:35
fs.defaultFS
        http://192.168.1.9:9000
   

多谢回复。
我试了下你的方案,还是有这样的问题。
为啥会提示mapred/JobConf呢?是这个库加载不起来么?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条