分享

Hadoop jobhistory历史服务器介绍

howtodown 2014-6-17 12:49:45 发表于 常识型 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 10 70332
本帖最后由 howtodown 于 2014-8-21 22:32 编辑
问题导读:
1.hadoop历史服务器的作用是什么?
2.如何启动历史服务器?
3.历史数据的存放位置该如何配置,在哪个文件中配置?






 Hadoop自带了一个历史服务器,可以通过历史服务器查看已经运行完的Mapreduce作业记录,比如用了多少个Map、用了多少个Reduce、作业提交时间、作业启动时间、作业完成时间等信息。默认情况下,Hadoop历史服务器是没有启动的,我们可以通过下面的命令来启动Hadoop历史服务器

  1. $ sbin/mr-jobhistory-daemon.sh   start historyserver
复制代码

这样我们就可以在相应机器的19888端口上打开历史服务器的WEB UI界面。可以查看已经运行完的作业情况。历史服务器可以单独在一台机器上启动,主要是通过以下的参数配置:

  1. <property>
  2.     <name>mapreduce.jobhistory.address</name>
  3.     <value>0.0.0.0:10020</value>
  4. </property>
  5. <property>
  6.     <name>mapreduce.jobhistory.webapp.address</name>
  7.     <value>0.0.0.0:19888</value>
  8. </property>
复制代码

上面的参数是在mapred-site.xml文件中进行配置,mapreduce.jobhistory.address和mapreduce.jobhistory.webapp.address默认的值分别是0.0.0.0:10020和0.0.0.0:19888,大家可以根据自己的情况进行相应的配置,参数的格式是host:port。配置完上述的参数之后,重新启动Hadoop jobhistory,这样我们就可以在mapreduce.jobhistory.webapp.address参数配置的主机上对Hadoop历史作业情况经行查看。

  很多人就会问了,这些历史数据是存放在哪里的?是存放在HDFS中的,我们可以通过下面的配置来设置在HDFS的什么目录下存放历史作业记录:


  1. <property>
  2.     <name>mapreduce.jobhistory.done-dir</name>
  3.     <value>${yarn.app.mapreduce.am.staging-dir}/history/done</value>
  4. </property>
  5. <property>
  6.     <name>mapreduce.jobhistory.intermediate-done-dir</name>
  7.     <value>${yarn.app.mapreduce.am.staging-dir}
  8.                          /history/done_intermediate</value>
  9. </property>
  10. <property>
  11.     <name>yarn.app.mapreduce.am.staging-dir</name>
  12.     <value>/tmp/hadoop-yarn/staging</value>
  13. </property>
复制代码

上面的配置都默认的值,我们可以在mapred-site.xml文件中进行修改。其中,mapreduce.jobhistory.done-dir参数的意思是在什么目录下存放已经运行完的Hadoop作业记录;mapreduce.jobhistory.intermediate-done-dir的意思是正在运行的Hadoop作业记录。我们可以到mapreduce.jobhistory.done-dir参数配置的目录下看看里面存放的是什么东西:

  1. [wyp@master /home/wyp/hadoop]# bin/hadoop fs -ls /jobs/done/
  2. Found 2 items
  3. drwxrwx---   - wyp supergroup          0 2013-12-03 23:36 /jobs/done/2013
  4. drwxrwx---   - wyp supergroup          0 2014-02-01 00:02 /jobs/done/2014
  5. [wyp@master /home/wyp/hadoop]# bin/hadoop fs -ls /jobs/done/2014/02/16
  6. Found 27 items
  7. drwxrwx--- - wyp supergroup 0 2014-02-16 02:02 /jobs/done/2014/02/16/001216
  8. drwxrwx--- - wyp supergroup 0 2014-02-16 02:44 /jobs/done/2014/02/16/001217
  9. drwxrwx--- - wyp supergroup 0 2014-02-16 03:38 /jobs/done/2014/02/16/001218
  10. drwxrwx--- - wyp supergroup 0 2014-02-16 04:20 /jobs/done/2014/02/16/001219
  11. drwxrwx--- - wyp supergroup 0 2014-02-16 05:14 /jobs/done/2014/02/16/001220
  12. [wyp@master hadoop]# bin/hadoop fs -ls /jobs/done/2014/02/16/001216
  13. Found 1318 items
  14. -rwxrwx---   3 wyp    supergroup   45541335 2014-02-16 00:11 /jobs/done/2014
  15. /02/16/001216/job_1388830974669_1216161-1392478837250-wyp-insert+overwrite
  16. +table+qt_city_query_ana...e%28Stage-1392480689141-5894-33-SUCCEEDED-wyp.jhist
  17. -rwxrwx---   3 wyp    supergroup     193572 2014-02-16 00:11 /jobs/done
  18. /2014/02/16/001216/job_1388830974669_1216161_conf.xml
  19. -rwxrwx---   3 wyp    supergroup   45594759 2014-02-16 00:11 /jobs/done/2014
  20. /02/16/001216/job_1388830974669_1216162-1392478837250-wyp-insert+overwrite
  21. +table+qt_city_query_ana...e%28Stage-1392480694818-5894-33-SUCCEEDED-wyp.jhist
  22. -rwxrwx---   3 wyp    supergroup     193572 2014-02-16 00:11 /jobs/done
  23. /2014/02/16/001216/job_1388830974669_1216162_conf.xml
复制代码

 通过上面的结果我们可以得到一下几点:
  (1)、历史作业记录是存放在HDFS目录中;
  (2)、由于历史作业记录可能非常多,所以历史作业记录是按照年/月/日的形式分别存放在相应的目录中,这样便于管理和查找;
  (3)、对于每一个Hadoop历史作业记录相关信息都用两个文件存放,后缀名分别为*.jhist,*.xml。*.jhist文件里存放的是具体Hadoop作业的详细信息,如下:


  1. {
  2.   "type": "JOB_INITED",
  3.   "event": {
  4.       "org.apache.hadoop.mapreduce.jobhistory.JobInited": {
  5.          "jobid": "job_1388830974669_1215999",
  6.          "launchTime": 1392477383583,
  7.          "totalMaps": 1,
  8.          "totalReduces": 1,
  9.          "jobStatus": "INITED",
  10.          "uberized": false
  11.       }
  12.    }
  13. }
复制代码
这是Hadoop JOB初始化的一条信息,通过观察我们知道,*.jhist文件里面全部都是Json格式的数据。根据type进行区分这条Json的含义,在Hadoop中,总共包含了一下几个type:


  1. "JOB_SUBMITTED",
  2. "JOB_INITED",
  3. "JOB_FINISHED",
  4. "JOB_PRIORITY_CHANGED",
  5. "JOB_STATUS_CHANGED",
  6. "JOB_FAILED",
  7. "JOB_KILLED",
  8. "JOB_ERROR",
  9. "JOB_INFO_CHANGED",
  10. "TASK_STARTED",
  11. "TASK_FINISHED",
  12. "TASK_FAILED",
  13. "TASK_UPDATED",
  14. "NORMALIZED_RESOURCE",
  15. "MAP_ATTEMPT_STARTED",
  16. "MAP_ATTEMPT_FINISHED",
  17. "MAP_ATTEMPT_FAILED",
  18. "MAP_ATTEMPT_KILLED",
  19. "REDUCE_ATTEMPT_STARTED",
  20. "REDUCE_ATTEMPT_FINISHED",
  21. "REDUCE_ATTEMPT_FAILED",
  22. "REDUCE_ATTEMPT_KILLED",
  23. "SETUP_ATTEMPT_STARTED",
  24. "SETUP_ATTEMPT_FINISHED",
  25. "SETUP_ATTEMPT_FAILED",
  26. "SETUP_ATTEMPT_KILLED",
  27. "CLEANUP_ATTEMPT_STARTED",
  28. "CLEANUP_ATTEMPT_FINISHED",
  29. "CLEANUP_ATTEMPT_FAILED",
  30. "CLEANUP_ATTEMPT_KILLED",
  31. "AM_STARTED"
复制代码
而*.xml文件里面记录的是相应作业运行时候的完整参数配置,大家可以进去查看一下。

  (4)、每一个作业的历史记录都存放在一个单独的文件中。
  mapreduce.jobhistory.intermediate-done-dir配置的目录下主要存放的是当前正在运行的Hadoop任务的记录相关信息,感兴趣的同学可以进去看看,这里就不介绍了。
  如果对Hadoop历史服务器WEB UI上提供的数据不满意,我们就可以通过对mapreduce.jobhistory.done-dir配置的目录进行分析,得到我们感兴趣的信息,比如统计某天中运行了多少个map、运行最长的作业用了多少时间、每个用户运行的Mapreduce任务数、总共运行了多少Mapreduce数等信息,这样对监控Hadoop集群是很好的,我们可以根据那些信息来确定怎么给某个用户分配资源等等。
 细心的同学可能发现,在Hadoop历史服务器的WEB UI上最多显示20000个历史的作业记录信息;其实我们可以通过下面的参数进行配置,然后重启一下Hadoop jobhistory即可。
  1. <property>
  2.     <name>mapreduce.jobhistory.joblist.cache.size</name>
  3.     <value>20000</value>
  4. </property>
复制代码



已有(10)人评论

跳转到指定楼层
Tiny 发表于 2015-1-12 10:42:54
谢谢,终于找到了,以前配置了不知道是干嘛的。
回复

使用道具 举报

venus777 发表于 2015-1-14 14:56:19
您好,我想问一下。在web19888端口显示的那些信息,是通过读日志文件读到的么?出了解析.jhist文件和使用historyserver的rest接口,还有没有别的办法能够获得历史作业的这些counters信息?
回复

使用道具 举报

desehawk 发表于 2015-1-14 16:43:33
venus777 发表于 2015-1-14 14:56
您好,我想问一下。在web19888端口显示的那些信息,是通过读日志文件读到的么?出了解析.jhist文件和使用hi ...
目前还没有发现。为什么会产生这样的想法
回复

使用道具 举报

zhujun182104906 发表于 2015-1-14 23:21:31
这个历史任务目录与每个mapreduce任务跑完后生成的那个_log目录里的东西有什么关系吗?
回复

使用道具 举报

bigye 发表于 2015-4-1 10:01:50
学习了,找了好久终于找到了。感谢楼主~~
回复

使用道具 举报

dannyhe 发表于 2015-6-1 11:08:46
.jhist文件的权限 可不可以设置
回复

使用道具 举报

zxsz4084 发表于 2015-11-24 23:12:17
谢谢楼主,一直不知道hadoop2.x如何看任务进度。。。
回复

使用道具 举报

tingxuelouwq 发表于 2015-12-28 16:49:40
十分感谢,非常有用呀
回复

使用道具 举报

12下一页
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条