分享

Flume按文件的方式导入hdfs的问题

wjhdtx 发表于 2014-11-4 14:44:37
muyannian 发表于 2014-11-4 11:46
本帖最后由 muyannian 于 2014-11-4 11:48 编辑

找到个资料,但是对flume不熟悉,你看看是否对你有帮助 ...

文档我也有,谢谢。
回复

使用道具 举报

howtodown 发表于 2014-11-4 17:30:58
wjhdtx 发表于 2014-11-4 12:59
谢谢各位的回复,各位的我一会再看,先说下我的测试结果,换了种测试方法,找到了原因:
flume看来还不怎么成熟,参数都应该是配置的。
对于jvm我倒也遇到过相同的问题,设置足够大就可以了。
你看看是不是其它因素造成的这个结果
回复

使用道具 举报

wjhdtx 发表于 2014-11-4 17:50:00
问题解决了,虚拟机环境上传2G的日志没问题,先这样了,分享下最后的配置文件:
QQ截图20141104164139.jpg


回复

使用道具 举报

bioger_hit 发表于 2014-11-4 21:25:41
wjhdtx 发表于 2014-11-4 17:50
问题解决了,虚拟机环境上传2G的日志没问题,先这样了,分享下最后的配置文件:
hdfs.rollSize 设置为3G了
回复

使用道具 举报

wjhdtx 发表于 2014-11-5 08:17:05
本帖最后由 wjhdtx 于 2014-11-5 08:24 编辑
howtodown 发表于 2014-11-4 17:30
flume看来还不怎么成熟,参数都应该是配置的。
对于jvm我倒也遇到过相同的问题,设置足够大就可以了。
...

我觉得是这样:

1. 对于图片、视频、音频等blob对象,应该使用BlobDeserializer来处理,一般不是特别大,到不了2g,到了就象你说的加大jvm堆大小

2. 对于文本文件比如日志等来说,还是使用LineDeserializer来处理,可以支持大的量

3. 个人觉得flume足够灵活,但是灵活的让人疯狂,如果有基于flume二次解决方案的简单封装,那就爽了:)

回复

使用道具 举报

韩克拉玛寒 发表于 2014-11-5 09:05:39
很不错的文档。分享学习了
回复

使用道具 举报

hahaxixi 发表于 2014-11-5 09:42:23
集思广益,学习了~~~~
回复

使用道具 举报

zzuyao 发表于 2014-12-30 22:58:17
解决问题的过程不错
回复

使用道具 举报

fqqgb365 发表于 2015-1-30 13:48:45
希望大家在一起解决问题啊,共同进步
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条