分享

关于hadoop 生成的日志文件

LoveJW 发表于 2014-12-24 09:54:24 [显示全部楼层] 只看大图 回帖奖励 阅读模式 关闭右栏 3 12269
df -h.png
linux服务器上的根目录当初装系统的时候只分了50G,现在hadoop 运行生成的日志文件都保存在这,但是目录一写满,集群就不能用了,挂载分区空间目前还不会。想问问有没有什么办法修改日志文件存储路径?把日志存在/home目录下。或者是还有别的办法解决这个问题吗?

已有(3)人评论

跳转到指定楼层
muyannian 发表于 2014-12-24 11:45:23
定义这个全局变量即可:
${Hadoop_LOG_DIR}


原理:


可以在$HADOOP_HOME/bin/ hadoop 中找到如下脚本
if [ "$HADOOP_LOG_DIR" = "" ]; then
  HADOOP_LOG_DIR="$HADOOP_HOME/logs"


$HADOOP_HOME/logs的默认目录
如果给$HADOOP_LOG_DIR赋值即可改变默认目录

回复

使用道具 举报

pig2 发表于 2014-12-24 12:04:26
详细参考
如何改变hadoop日志的位置--改变hadoop日志默认路径

回复

使用道具 举报

LoveJW 发表于 2014-12-24 14:49:19
pig2 发表于 2014-12-24 12:04
详细参考
如何改变hadoop日志的位置--改变hadoop日志默认路径

还是有点不太明白啊?具体怎么操作能讲讲吗?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条