分享

发现namenode的日志文件edits文件好多

jsh0401 发表于 2014-12-16 09:47:03 [显示全部楼层] 只看大图 回帖奖励 阅读模式 关闭右栏 5 54508
本帖最后由 pig2 于 2014-12-16 11:48 编辑
我们开发环境集群ha环境,发现好多edits文件,如图,fsimage 和 edits 应该会定时合并并删除edits吗?请教各位,是否环境有问题?edits文件应该只有当当天的吗?是否会定时删除?
fsimage edits.jpg

已有(5)人评论

跳转到指定楼层
jsh0401 发表于 2014-12-16 10:21:11
是不是一个操作就产生一个edits文件?配置文件中没有设置checkpoint间隔周期难道不会默认自动合并吗?
回复

使用道具 举报

muyannian 发表于 2014-12-16 12:01:49


会定期合并的,多并不代表不合并。

详细参考下面:


在Hadoop 2.x中解决了NameNode的单点故障问题;同时SecondaryName已经不用了,而之前的Hadoop 1.x中是通过SecondaryName来合并fsimage和edits以此来减小edits文件的大小,从而减少NameNode重启的时间。而在Hadoop 2.x中已经不用SecondaryName,那它是怎么来实现fsimage和edits合并的呢?首先我们得知道,在Hadoop 2.x中提供了HA机制(解决NameNode单点故障),可以通过配置奇数个JournalNode来实现HA,如何配置今天就不谈了!HA机制通过在同一个集群中运行两个NN(active NN & standby NN)来解决NameNode的单点故障,在任何时间,只有一台机器处于Active状态;另一台机器是处于Standby状态。Active NN负责集群中所有客户端的操作;而Standby NN主要用于备用,它主要维持足够的状态,如果必要,可以提供快速的故障恢复。
  为了让Standby NN的状态和Active NN保持同步,即元数据保持一致,它们都将会和JournalNodes守护进程通信。当Active NN执行任何有关命名空间的修改,它需要持久化到一半以上的JournalNodes上(通过edits log持久化存储),而Standby NN负责观察edits log的变化,它能够读取从JNs中读取edits信息,并更新其内部的命名空间。一旦Active NN出现故障,Standby NN将会保证从JNs中读出了全部的Edits,然后切换成Active状态。Standby NN读取全部的edits可确保发生故障转移之前,是和Active NN拥有完全同步的命名空间状态


那么这种机制是如何实现fsimage和edits的合并?在standby NameNode节点上会一直运行一个叫做CheckpointerThread的线程,这个线程调用StandbyCheckpointer类的doWork()函数,而doWork函数会每隔Math.min(checkpointCheckPeriod, checkpointPeriod)秒来坐一次合并操作,相关代码如下:

  1. try {
  2.           Thread.sleep(1000 * checkpointConf.getCheckPeriod());
  3.         } catch (InterruptedException ie) {
  4. }
  5. public long getCheckPeriod() {
  6.     return Math.min(checkpointCheckPeriod, checkpointPeriod);
  7. }
  8. checkpointCheckPeriod = conf.getLong(
  9.         DFS_NAMENODE_CHECKPOINT_CHECK_PERIOD_KEY,
  10.         DFS_NAMENODE_CHECKPOINT_CHECK_PERIOD_DEFAULT);
  11.         
  12. checkpointPeriod = conf.getLong(DFS_NAMENODE_CHECKPOINT_PERIOD_KEY,
  13.                                 DFS_NAMENODE_CHECKPOINT_PERIOD_DEFAULT);
复制代码



上面的checkpointCheckPeriod和checkpointPeriod变量是通过获取hdfs-site.xml以下两个属性的值得到:

  1. <property>
  2.   <name>dfs.namenode.checkpoint.period</name>
  3.   <value>3600</value>
  4.   <description>The number of seconds between two periodic checkpoints.
  5.   </description>
  6. </property>
  7. <property>
  8.   <name>dfs.namenode.checkpoint.check.period</name>
  9.   <value>60</value>
  10.   <description>The SecondaryNameNode and CheckpointNode will poll the NameNode
  11.   every 'dfs.namenode.checkpoint.check.period' seconds to query the number
  12.   of uncheckpointed transactions.
  13.   </description>
  14. </property>
复制代码

当达到下面两个条件的情况下,将会执行一次checkpoint:
  1. boolean needCheckpoint = false;
  2. if (uncheckpointed >= checkpointConf.getTxnCount()) {
  3.      LOG.info("Triggering checkpoint because there have been " +
  4.                 uncheckpointed + " txns since the last checkpoint, which " +
  5.                 "exceeds the configured threshold " +
  6.                 checkpointConf.getTxnCount());
  7.      needCheckpoint = true;
  8. } else if (secsSinceLast >= checkpointConf.getPeriod()) {
  9.      LOG.info("Triggering checkpoint because it has been " +
  10.             secsSinceLast + " seconds since the last checkpoint, which " +
  11.              "exceeds the configured interval " + checkpointConf.getPeriod());
  12.      needCheckpoint = true;
  13. }
复制代码



 当上述needCheckpoint被设置成true的时候,StandbyCheckpointer类的doWork()函数将会调用doCheckpoint()函数正式处理checkpoint。当fsimage和edits的合并完成之后,它将会把合并后的fsimage上传到Active NameNode节点上,Active NameNode节点下载完合并后的fsimage,再将旧的fsimage删掉(Active NameNode上的)同时清除旧的edits文件。步骤可以归类如下:
  (1)、配置好HA后,客户端所有的更新操作将会写到JournalNodes节点的共享目录中,可以通过下面配置


  1. <property>
  2.   <name>dfs.namenode.shared.edits.dir</name>
  3.   <value>qjournal://XXXX/mycluster</value>
  4. </property>
  5. <property>
  6.   <name>dfs.journalnode.edits.dir</name>
  7.   <value>/export1/hadoop2x/dfs/journal</value>
  8. </property>
复制代码



(2)、Active Namenode和Standby NameNode从JournalNodes的edits共享目录中同步edits到自己edits目录中;
  (3)、Standby NameNode中的StandbyCheckpointer类会定期的检查合并的条件是否成立,如果成立会合并fsimage和edits文件;
  (4)、Standby NameNode中的StandbyCheckpointer类合并完之后,将合并之后的fsimage上传到Active NameNode相应目录中;
  (5)、Active NameNode接到最新的fsimage文件之后,将旧的fsimage和edits文件清理掉;
  (6)、通过上面的几步,fsimage和edits文件就完成了合并,由于HA机制,会使得Standby NameNode和Active NameNode都拥有最新的fsimage和edits文件(之前Hadoop 1.x的SecondaryNameNode中的fsimage和edits不是最新的)









回复

使用道具 举报

jsh0401 发表于 2014-12-16 14:28:37
muyannian 发表于 2014-12-16 12:01
会定期合并的,多并不代表不合并。

详细参考下面:

你复制的那些我早看过了,现在问题就是那么多文件,每2分钟就有一个,可能是跑任务的时候生成的,你看都是10号的,现在还没见他合并啊
回复

使用道具 举报

s060403072 发表于 2014-12-16 15:25:05
jsh0401 发表于 2014-12-16 10:21
是不是一个操作就产生一个edits文件?配置文件中没有设置checkpoint间隔周期难道不会默认自动合并吗?


建议楼主配置下,hadoop不一定就按照楼主的意思会默认合并,或则合并周期默认比较长。



回复

使用道具 举报

supertianxiang 发表于 2015-7-31 18:26:51
这个问题解决了没有呢,我的也是这样
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条