分享

Flume,Spooldir收集发送到HDFS上,size存储太小

铜锁Spooldir收集为什么日志存储到HDFS上的时候,把内容分为很多个 log 存储,而且每个log的size存储的内容才 653B;
如图
QQ拼音截图未命名.png
发送到HDFS上的内容
QQ拼音截图未命名.png
下面是我解压输出的内容:
QQ拼音截图未命名.png
而且为什么不能一行一行的排列好呢

已有(4)人评论

跳转到指定楼层
atsky123 发表于 2016-3-31 15:51:06
滚动方式设置成:
rollSize=1000000
在hdfs上应该没问题
回复

使用道具 举报

神豪。 发表于 2016-3-31 16:02:33
atsky123 发表于 2016-3-31 15:51
滚动方式设置成:
rollSize=1000000
在hdfs上应该没问题

好像没用,我都设置成9999999了。
回复

使用道具 举报

atsky123 发表于 2016-3-31 16:33:40
神豪。 发表于 2016-3-31 16:02
好像没用,我都设置成9999999了。

设置成这样,flume就不会传递数据了。楼主的设置还是有问题
回复

使用道具 举报

神豪。 发表于 2016-3-31 16:52:38
好像明白了点什么,还是好好看日志

1.png 2.png
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条