分享

求助 flume 日志堆积问题

a_zhen 发表于 2015-9-10 09:22:06
都讨论讨论啊
回复

使用道具 举报

请叫我野区养猪 发表于 2015-9-10 10:36:29
zxmit 发表于 2015-9-9 19:22
分析一下:看你的配置文件,flume作为一个数据采集器,将采集到的数据发送出去。
首先,数据产生的速率是 ...

sink 设置为空?
Discards all events it receives from the channel. Required properties are in bold 这是官网给的解释 丢弃所有的事件,从信道接收。所需属性是以黑体。属性名为默认的描述通道类型的组件类型名称,需要为空
但是翻译之后 还是不怎么懂 并且 设置为null 代表什么含义?
回复

使用道具 举报

请叫我野区养猪 发表于 2015-9-10 12:00:20
求助各位版主 !!!
回复

使用道具 举报

muyannian 发表于 2015-9-10 15:19:07
10秒移动,是否会产生大量小文件。
为何如此的频繁。

回复

使用道具 举报

请叫我野区养猪 发表于 2015-9-10 16:45:59
muyannian 发表于 2015-9-10 15:19
10秒移动,是否会产生大量小文件。
为何如此的频繁。

目前是 需要解决  flume碰到死循环日志 造成的日志堆积 所以不会出现小文件  
现在上面提出来的 要解决 如果日志在死循环的情况下 flume堆积大量的日志
所以现在做了一个死循环日志  不停的输出日志  但是flume的工作能力是有限的 它发送的速度没有收集的快
回复

使用道具 举报

zxmit 发表于 2015-9-10 22:10:35
请叫我野区养猪 发表于 2015-9-10 10:36
sink 设置为空?
Discards all events it receives from the channel. Required properties are in bold ...

设置为空只是为了确定是否是因为网络瓶颈导致数据堆积
回复

使用道具 举报

zxmit 发表于 2015-9-10 22:17:15
请叫我野区养猪 发表于 2015-9-10 16:45
目前是 需要解决  flume碰到死循环日志 造成的日志堆积 所以不会出现小文件  
现在上面提出来的 要解决  ...

死循环日志?! 感觉很不科学,程序里面既然会出现死循环的情况,日志级别定义为DEBUG应该比较合理
回复

使用道具 举报

jixianqiuxue 发表于 2015-9-15 09:58:44
参考下kafka

由于采集数据的速度和数据处理的速度不一定同步,因此添加一个消息中间件来作为缓冲,选用apache的kafka


用这个框架
大数据架构:flume-ng+Kafka+Storm+HDFS 实时系统组合
http://www.aboutyun.com/thread-6855-1-1.html



回复

使用道具 举报

12
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条