分享

Flume-ng将数据插入hdfs与HBase-0.96.0

nettman 2014-5-29 18:48:16 发表于 实操演练 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 9 51036
问题导读:
1.如何配置分布式flume
2.master与node之间该如何配置,有什么异同?
3.启动命令是什么?
4.flume把数据插入hbase,该如何配置?











一、Flume-ng配置插入hdfs

1)简介

Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

设计目标:
(1) 可靠性
当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;如果数据发送失败,可以重新发送。),Store on failure(当数据接收方crash时,将数据写到本地,待恢复后,继续发送),Best effort(数据发送到接收方后,不会进行确认)。

(2) 可扩展性
Flume采用了三层架构,分别为agent,collector和storage,每一层均可以水平扩展。其中,所有agent和collector由master统一管理,这使得系统容易监控和维护,且master允许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。

(3) 可管理性
所有agent和colletor由master统一管理,这使得系统便于维护。多master情况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。用户可以在master上查看各个数据源或者数据流执行情况,且可以对各个数据源配置和动态加载。Flume提供了web 和shell script command两种形式对数据流进行管理。

(4) 功能可扩展性
用户可以根据需要添加自己的agent,collector或者storage。此外,Flume自带了很多组件,包括各种agent(file, syslog等),collector和storage(File,HDFS,HBase等)。

2)配置

之前配置过Hadoop和hbase,所以需要先将hadoop和hbase启动,才能将文件写入hdfs和hbase。
(hadoop-2.2.0和hbase-0.96.0安装可以参考:hadoop2.2完全分布式最新高可靠安装文档hbase 0.96整合到hadoop2.2三个节点全分布式安装高可靠文档

本次配置环境为两台装有centos 的测试集群。主机名为master的机器负责收集日志,主机名为node的机器负责日志的写入,本次配置的写入方式:写入普通目录,写入hdfs

首先
1.下载flume-ng的二进制压缩文件。
地址:http://flume.apache.org/download.html

2.下载好后,解压文件。
(1)首先编辑/etc/profile文件,在其中添加如下几行:
  1. export FLUME_HOME=/home/aaron/apache-flume-1.4.0-bin
  2. export FLUME_CONF_DIR=$FLUME_HOME/conf
  3. export PATH=$PATH:$FLUME_HOME/bin
复制代码


添加好之后记得运行$ souce /etc/profile命令使修改生效。

(2)在master的flume文件夹的conf目录中,新建一个flume-master.conf文件,内容如下:

  1. agent.sources = seqGenSrc
  2. agent.channels = memoryChannel
  3. agent.sinks = remoteSink
  4. # For each one of the sources, the type is defined
  5. agent.sources.seqGenSrc.type = exec
  6. agent.sources.seqGenSrc.command = tail -F /home/aaron/test
  7. # The channel can be defined as follows.
  8. agent.sources.seqGenSrc.channels = memoryChannel
  9. # Each sink's type must be defined
  10. agent.sinks.loggerSink.type = logger
  11. #Specify the channel the sink should use
  12. agent.sinks.loggerSink.channel = memoryChannel
  13. # Each channel's type is defined.
  14. agent.channels.memoryChannel.type = memory
  15. # Other config values specific to each type of channel(sink or source)
  16. # can be defined as well
  17. # In this case, it specifies the capacity of the memory channel
  18. agent.channels.memoryChannel.capacity = 100
  19. agent.channels.memoryChannel.keep-alive = 100
  20. agent.sinks.remoteSink.type = avro
  21. agent.sinks.remoteSink.hostname = node
  22. agent.sinks.remoteSink.port = 23004
  23. agent.sinks.remoteSink.channel = memoryChannel
复制代码



(3)在node机器上也将/etc/profile文件添加上面的配置。然后,在conf中新建一个flume-node.conf文件,修改如下:
  1. agent.sources = seqGenSrc1
  2. agent.channels = memoryChannel
  3. #agent.sinks = fileSink
  4. agent.sinks = <SPANstyle="FONT-FAMILY: Arial, Helvetica, sans-serif">fileSink</SPAN>
  5. # For each one of the sources, the type is defined
  6. agent.sources.seqGenSrc1.type = avro
  7. agent.sources.seqGenSrc1.bind = node
  8. agent.sources.seqGenSrc1.port = 23004
  9. # The channel can be defined as follows.
  10. agent.sources.seqGenSrc1.channels = memoryChannel
  11. # Each sink's type must be defined
  12. agent.sinks.loggerSink.type = logger
  13. #Specify the channel the sink should use
  14. agent.sinks.loggerSink.channel = memoryChannel
  15. # Each channel's type is defined.
  16. agent.channels.memoryChannel.type = memory
  17. # Other config values specific to each type of channel(sink or source)
  18. # can be defined as well
  19. # In this case, it specifies the capacity of the memory channel
  20. agent.channels.memoryChannel.capacity = 100
  21. agent.channels.memoryChannel.keep-alive = 100
  22. agent.sources.flieSink.type = avro
  23. agent.sources.fileSink.channel = memoryChannel
  24. agent.sources.fileSink.sink.directory = /home/aaron/
  25. agent.sources.fileSink.serializer.appendNewline = true
复制代码




在master上面运行命令:

  1. $ bin/flume-ng agent --conf ./conf/ -f conf/flume-maste.conf -Dflume.root.logger=DEBUG,console -n agent
复制代码




在node上运行命令:
  1. $ bin/flume-ng agent --conf ./conf/ -f conf/flume-node.conf -Dflume.root.logger=DEBUG,console -n agent
复制代码




启动之后,就可以发现两者之间可以相互通信,master上面的文件就能发送到node上,修改master上的test文件,在后面追加内容时,node也可以接收到。

如果想要将内容写入hadoop,可以将node中的flume-node.conf文件做如下修改:

  1. agent.sinks = k2
  2. agent.sinks.k2.type = hdfs
  3. agent.sinks.k2.channel = memoryChannel
  4. agent.sinks.k2.hdfs.path = hdfs://master:8089/hbase
  5. agent.sinks.k2.hdfs.fileType = DataStream
  6. agent.sinks.k2.hdfs.writeFormat = Text
复制代码





其中,hdfs://master:8089/hbase为hadoop的hdfs文件路径。




二、Flume-ng将数据插入HBase-0.96.0



首先,修改node中flume文件夹下conf目录中的flume-node.conf文件(原配置参考上文),对其做如下修改:

agent.sinks = k1
agent.sinks.k1.type = hbase
agent.sinks.k1.table = hello
agent.sinks.k1.columnFamily = cf
agent.sinks.k1.column = col1
agent.sinks.k1.serializer = org.apache.flume.sink.hbase.SimpleHbaseEventSerializer
agent.sinks.k1.channel = memoryChannel


不过和上文不同的是,这次要想得到成功结果就没那么简单了,由于依赖的版本问题。此处需要将flume的lib文件夹下的protobuf用Hadoop-2.2.0中的2.5.0版本替换,还需要用hadoop-2.2.0中的guava替换flume的lib文件夹下的guava,删除原来相应的jar文件。启动即可生效。

flume-ng里面的SimpleHbaseEventSerializer只提供了最简单的数据插入hbase功能,如果还有其他需要,就得自己写HbaseEventSerializer类,在apache-flume-1.4.0-src/flume-ng-sinks/flume-ng-hbase-sink/src/main/java中定义自己的类,实现flume中的HbaseEventSerializer接口。一个简单的实例如下:

publicclass MyHBaseSerializer implements HbaseEventSerializer {
privatestaticfinal String[] COLUMNS = "column1,column2".split(",");
privatestaticfinal String[] PARAMS = "col1,col2".split(",");
privatebyte[] columnFamily = "cf".getBytes();
privatebyte[] content;
@Override
publicvoid configure(Context context) {
}
@Override
publicvoid configure(ComponentConfiguration conf) {
}
@Override
publicvoid initialize(Event event, byte[] columnFamily) {
this.content = event.getBody();
this.columnFamily = columnFamily;
}
@Override
public List<Row> getActions() {
String string = Bytes.toString(content);
String value1 = string.substring(0,string.length()/2);
String value2 = string.substring(string.length()/2, string.length());
Map<String,String> map = Maps.newHashMap();
map.put(PARAMS[0], value1);
map.put(PARAMS[1], value2);
List<Row> actions = new LinkedList<Row>();
String rowKey = String.valueOf(System.currentTimeMillis());
Put put = new Put(Bytes.toBytes(rowKey));
for (int i = 0; i < COLUMNS.length; i++) {
String value = map.get(PARAMS);
if (value == null)
value = "";
put.add(columnFamily, Bytes.toBytes(COLUMNS), Bytes.toBytes(value));
}
actions.add(put);
return actions;
}
@Override
public List<Increment> getIncrements() {
List<Increment> incs = new LinkedList<Increment>();
return incs;
}
@Override
publicvoid close() {
}
}
该类实现的功能是将文件中的内容按行切分程两部分,分别插入列名为column1和column2的两列中,rowKey为当前时间。完成后将flume-ng代码重新编译打包。然后将flume-ng目录里面的lib文件夹的相应的jar文件替换。然后将上文中的agent.sinks.k1.serializer 值改为test..MyHBaseSerializer即可。其中test为包名。






加微信w3aboutyun,可拉入技术爱好者群

已有(9)人评论

跳转到指定楼层
jixianqiuxue 发表于 2015-3-23 11:05:08
sun1 发表于 2015-3-23 10:53
解决了吗,我昨天也遇到这样的问题了,还没有解决呢。

检查下classpath及配置文件
回复

使用道具 举报

shadowhtx 发表于 2014-7-25 14:15:21
Good,I will have a try!
回复

使用道具 举报

小小布衣 发表于 2014-7-31 00:15:31
2014-07-30 19:18:06,730 (conf-file-poller-0) [INFO - org.apache.flume.node.AbstractConfigurationProvider.loadChannels(AbstractConfigurationProvider.java:205)] Created channel c1
2014-07-30 19:18:06,731 (conf-file-poller-0) [INFO - org.apache.flume.source.DefaultSourceFactory.create(DefaultSourceFactory.java:39)] Creating instance of source r1, type spooldir
2014-07-30 19:18:06,749 (conf-file-poller-0) [INFO - org.apache.flume.sink.DefaultSinkFactory.create(DefaultSinkFactory.java:40)] Creating instance of sink: k1, type: hbase
2014-07-30 19:18:06,756 (conf-file-poller-0) [ERROR - org.apache.flume.node.PollingPropertiesFileConfigurationProvider$FileWatcherRunnable.run(PollingPropertiesFileConfigurationProvider.java:145)] Failed to start agent because dependencies were not found in classpath. Error follows.
java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration
        at org.apache.flume.sink.hbase.HBaseSink.<init>(HBaseSink.java:102)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:525)
        at java.lang.Class.newInstance0(Class.java:372)
        at java.lang.Class.newInstance(Class.java:325)
帮我看看这个吧,,不值到是什么原因导致的,,急啊
回复

使用道具 举报

ohano_javaee 发表于 2014-10-18 10:11:15
每次自定义Serializer都需要重新编译flume-ng吗
回复

使用道具 举报

sun1 发表于 2015-3-23 10:53:45
小小布衣 发表于 2014-7-31 00:15
2014-07-30 19:18:06,730 (conf-file-poller-0)  Created channel c1
2014-07-30 19:18:06,731 (conf-file ...

解决了吗,我昨天也遇到这样的问题了,还没有解决呢。
回复

使用道具 举报

694809295@qq.co 发表于 2015-3-24 15:20:33
我现在遇到的问题是从windows下往linux下flume的spooldir路径里上传文件,会报异常java.lang.IllegalStateException: File has been modified since being read: /home/nids/wg/apache-flume-1.5.2-bin/ceshi12/1.txt
        at org.apache.flume.client.avro.ReliableSpoolingFileEventReader.retireCurrentFile(ReliableSpoolingFileEventReader.java:306)
就这个错,也就是边上传边通过flume来读写数据到hdfs会出错。请问有没有解决方案
回复

使用道具 举报

feng01301218 发表于 2015-4-3 16:37:25
问题导读:
1.如何配置分布式flume
2.master与node之间该如何配置,有什么异同?
3.启动命令是什么?
4.flume把数据插入hbase,该如何配置?
回复

使用道具 举报

tang 发表于 2015-6-10 20:21:13
回复

使用道具 举报

cdb521007 发表于 2015-7-26 14:10:59
写的例子都很有实际用途,谢谢LZ的分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条