分享

大数据项目之电商数仓(用户行为数据采集)(三)

问题导读:
1、Flume有哪些组件?
2、日志采集如何配置Flume?
3、Flume的ETL和分类型拦截器有哪些?
4、日志采集Flume启动停止脚本如何设置?


上一篇:大数据项目之电商数仓(用户行为数据采集)(二)

4.4 采集日志Flume
2020-11-25_202140.jpg

4.4.1 日志采集Flume安装
集群规划:

2020-11-25_202551.jpg
4.4.2 项目经验之Flume组件
1)Source
(1)Taildir Source相比Exec Source、Spooling Directory Source的优势
TailDir Source:断点续传、多目录。Flume1.6以前需要自己自定义Source记录每次读取文件位置,实现断点续传。
Exec Source可以实时搜集数据,但是在Flume不运行或者Shell命令出错的情况下,数据将会丢失。
Spooling Directory Source监控目录,不支持断点续传。
(2)batchSize大小如何设置?
答:Event 1K左右时,500-1000合适(默认为100)
2)Channel
采用Kafka Channel,省去了Sink,提高了效率。

4.4.3 日志采集Flume配置
1)Flume配置分析

2020-11-25_202631.jpg

Flume直接读log日志的数据,log日志的格式是app-yyyy-mm-dd.log。
2)Flume的具体配置如下:
(1)在/opt/module/flume/conf目录下创建file-flume-kafka.conf文件
  1. [kgg@hadoop101 conf]$ vim file-flume-kafka.conf
  2. 在文件配置如下内容
  3. a1.sources=r1
  4. a1.channels=c1 c2
  5. # configure source
  6. a1.sources.r1.type = TAILDIR
  7. a1.sources.r1.positionFile = /opt/module/flume/test/log_position.json
  8. a1.sources.r1.filegroups = f1
  9. a1.sources.r1.filegroups.f1 = /tmp/logs/app.+
  10. a1.sources.r1.fileHeader = true
  11. a1.sources.r1.channels = c1 c2
  12. #interceptor
  13. a1.sources.r1.interceptors =  i1 i2
  14. a1.sources.r1.interceptors.i1.type = com.kgg.flume.interceptor.LogETLInterceptor$Builder
  15. a1.sources.r1.interceptors.i2.type = com.kgg.flume.interceptor.LogTypeInterceptor$Builder
  16. a1.sources.r1.selector.type = multiplexing
  17. a1.sources.r1.selector.header = topic
  18. a1.sources.r1.selector.mapping.topic_start = c1
  19. a1.sources.r1.selector.mapping.topic_event = c2
  20. # configure channel
  21. a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
  22. a1.channels.c1.kafka.bootstrap.servers = hadoop101:9092,hadoop102:9092,hadoop103:9092
  23. a1.channels.c1.kafka.topic = topic_start
  24. a1.channels.c1.parseAsFlumeEvent = false
  25. a1.channels.c1.kafka.consumer.group.id = flume-consumer
  26. a1.channels.c2.type = org.apache.flume.channel.kafka.KafkaChannel
  27. a1.channels.c2.kafka.bootstrap.servers = hadoop101:9092,hadoop102:9092,hadoop103:9092
  28. a1.channels.c2.kafka.topic = topic_event
  29. a1.channels.c2.parseAsFlumeEvent = false
  30. a1.channels.c2.kafka.consumer.group.id = flume-consumer
复制代码
注意:com.kgg.flume.interceptor.LogETLInterceptor和com.kgg.flume.interceptor.LogTypeInterceptor是自定义的拦截器的全类名。需要根据用户自定义的拦截器做相应修改。


2020-11-25_202710.jpg

4.4.4 Flume的ETL和分类型拦截器
本项目中自定义了两个拦截器,分别是:ETL拦截器、日志类型区分拦截器。
ETL拦截器主要用于,过滤时间戳不合法和Json数据不完整的日志

日志类型区分拦截器主要用于,将启动日志和事件日志区分开来,方便发往Kafka的不同Topic。
1)创建Maven工程flume-interceptor
2)创建包名:com.kgg.flume.interceptor
3)在pom.xml文件中添加如下配置
  1. <dependencies>
  2.     <dependency>
  3.         <groupId>org.apache.flume</groupId>
  4.         <artifactId>flume-ng-core</artifactId>
  5.         <version>1.7.0</version>
  6.     </dependency>
  7. </dependencies>
  8. <build>
  9.     <plugins>
  10.         <plugin>
  11.             <artifactId>maven-compiler-plugin</artifactId>
  12.             <version>2.3.2</version>
  13.             <configuration>
  14.                 <source>1.8</source>
  15.                 <target>1.8</target>
  16.             </configuration>
  17.         </plugin>
  18.         <plugin>
  19.             <artifactId>maven-assembly-plugin</artifactId>
  20.             <configuration>
  21.                 <descriptorRefs>
  22.                     <descriptorRef>jar-with-dependencies</descriptorRef>
  23.                 </descriptorRefs>
  24.             </configuration>
  25.             <executions>
  26.                 <execution>
  27.                     <id>make-assembly</id>
  28.                     <phase>package</phase>
  29.                     <goals>
  30.                         <goal>single</goal>
  31.                     </goals>
  32.                 </execution>
  33.             </executions>
  34.         </plugin>
  35.     </plugins>
  36. </build>
复制代码

4)在com.kgg.flume.interceptor包下创建LogETLInterceptor类名
  1. Flume ETL拦截器LogETLInterceptor
  2. package com.kgg.flume.interceptor;
  3. import org.apache.flume.Context;
  4. import org.apache.flume.Event;
  5. import org.apache.flume.interceptor.Interceptor;
  6. import java.nio.charset.Charset;
  7. import java.util.ArrayList;
  8. import java.util.List;
  9. public class LogETLInterceptor implements Interceptor {
  10.     @Override
  11.     public void initialize() {
  12.     }
  13.     @Override
  14.     public Event intercept(Event event) {
  15.         // 1 获取数据
  16.         byte[] body = event.getBody();
  17.         String log = new String(body, Charset.forName("UTF-8"));
  18.         // 2 判断数据类型并向Header中赋值
  19.         if (log.contains("start")) {
  20.             if (LogUtils.validateStart(log)){
  21.                 return event;
  22.             }
  23.         }else {
  24.             if (LogUtils.validateEvent(log)){
  25.                 return event;
  26.             }
  27.         }
  28.         // 3 返回校验结果
  29.         return null;
  30.     }
  31.     @Override
  32.     public List<Event> intercept(List<Event> events) {
  33.         ArrayList<Event> interceptors = new ArrayList<>();
  34.         for (Event event : events) {
  35.             Event intercept1 = intercept(event);
  36.             if (intercept1 != null){
  37.                 interceptors.add(intercept1);
  38.             }
  39.         }
  40.         return interceptors;
  41.     }
  42.     @Override
  43.     public void close() {
  44.     }
  45.     public static class Builder implements Interceptor.Builder{
  46.         @Override
  47.         public Interceptor build() {
  48.             return new LogETLInterceptor();
  49.         }
  50.         @Override
  51.         public void configure(Context context) {
  52.         }
  53.     }
  54. }
复制代码

4)Flume日志过滤工具类
  1. package com.kgg.flume.interceptor;
  2. import org.apache.commons.lang.math.NumberUtils;
  3. public class LogUtils {
  4.     public static boolean validateEvent(String log) {
  5.         // 服务器时间 | json
  6.         // 1549696569054 | {"cm":{"ln":"-89.2","sv":"V2.0.4","os":"8.2.0","g":"M67B4QYU@gmail.com","nw":"4G","l":"en","vc":"18","hw":"1080*1920","ar":"MX","uid":"u8678","t":"1549679122062","la":"-27.4","md":"sumsung-12","vn":"1.1.3","ba":"Sumsung","sr":"Y"},"ap":"weather","et":[]}
  7.         // 1 切割
  8.         String[] logContents = log.split("\\|");
  9.         // 2 校验
  10.         if(logContents.length != 2){
  11.             return false;
  12.         }
  13.         //3 校验服务器时间
  14.         if (logContents[0].length()!=13 || !NumberUtils.isDigits(logContents[0])){
  15.             return false;
  16.         }
  17.         // 4 校验json
  18.         if (!logContents[1].trim().startsWith("{") || !logContents[1].trim().endsWith("}")){
  19.             return false;
  20.         }
  21.         return true;
  22.     }
  23.     public static boolean validateStart(String log) {
  24. // {"action":"1","ar":"MX","ba":"HTC","detail":"542","en":"start","entry":"2","extend1":"","g":"S3HQ7LKM@gmail.com","hw":"640*960","l":"en","la":"-43.4","ln":"-98.3","loading_time":"10","md":"HTC-5","mid":"993","nw":"WIFI","open_ad_type":"1","os":"8.2.1","sr":"D","sv":"V2.9.0","t":"1559551922019","uid":"993","vc":"0","vn":"1.1.5"}
  25.         if (log == null){
  26.             return false;
  27.         }
  28.         // 校验json
  29.         if (!log.trim().startsWith("{") || !log.trim().endsWith("}")){
  30.             return false;
  31.         }
  32.         return true;
  33.     }
  34. }
复制代码

5)Flume日志类型区分拦截器LogTypeInterceptor
  1. package com.kgg.flume.interceptor;
  2. import org.apache.flume.Context;
  3. import org.apache.flume.Event;
  4. import org.apache.flume.interceptor.Interceptor;
  5. import java.nio.charset.Charset;
  6. import java.util.ArrayList;
  7. import java.util.List;
  8. import java.util.Map;
  9. public class LogTypeInterceptor implements Interceptor {
  10.     @Override
  11.     public void initialize() {
  12.     }
  13.     @Override
  14.     public Event intercept(Event event) {
  15.         // 区分日志类型:   body  header
  16.         // 1 获取body数据
  17.         byte[] body = event.getBody();
  18.         String log = new String(body, Charset.forName("UTF-8"));
  19.         // 2 获取header
  20.         Map<String, String> headers = event.getHeaders();
  21.         // 3 判断数据类型并向Header中赋值
  22.         if (log.contains("start")) {
  23.             headers.put("topic","topic_start");
  24.         }else {
  25.             headers.put("topic","topic_event");
  26.         }
  27.         return event;
  28.     }
  29.     @Override
  30.     public List<Event> intercept(List<Event> events) {
  31.         ArrayList<Event> interceptors = new ArrayList<>();
  32.         for (Event event : events) {
  33.             Event intercept1 = intercept(event);
  34.             interceptors.add(intercept1);
  35.         }
  36.         return interceptors;
  37.     }
  38.     @Override
  39.     public void close() {
  40.     }
  41.     public static class Builder implements  Interceptor.Builder{
  42.         @Override
  43.         public Interceptor build() {
  44.             return new LogTypeInterceptor();
  45.         }
  46.         @Override
  47.         public void configure(Context context) {
  48.         }
  49.     }
  50. }
复制代码

6)打包
拦截器打包之后,只需要单独包,不需要将依赖的包上传。打包之后要放入Flume的lib文件夹下面。

2020-11-25_202746.jpg

注意:为什么不需要依赖包?因为依赖包在flume的lib目录下面已经存在了。
7)需要先将打好的包放入到hadoop101的/opt/module/flume/lib文件夹下面。
  1. [kgg@hadoop101 lib]$ ls | grep interceptor
  2. flume-interceptor-1.0-SNAPSHOT.jar
复制代码

8)分发Flume到hadoop102、hadoop103
  1. [kgg@hadoop101 module]$ xsync flume/
  2. [kgg@hadoop101 flume]$ bin/flume-ng agent --name a1 --conf-file conf/file-flume-kafka.conf &
复制代码

4.4.5 日志采集Flume启动停止脚本
1)在/home/kgg/bin目录下创建脚本f1.sh
  1. [kgg@hadoop101 bin]$ vim f1.sh
  2.     在脚本中填写如下内容
  3. #! /bin/bash
  4. case $1 in
  5. "start"){
  6.         for i in hadoop101 hadoop102
  7.         do
  8.                 echo " --------启动 $i 采集flume-------"
  9.                 ssh $i "nohup /opt/module/flume/bin/flume-ng agent --conf-file /opt/module/flume/conf/file-flume-kafka.conf --name a1 -Dflume.root.logger=INFO,LOGFILE > /dev/null 2>&1 &"
  10.         done
  11. };;   
  12. "stop"){
  13.         for i in hadoop101 hadoop102
  14.         do
  15.                 echo " --------停止 $i 采集flume-------"
  16.                 ssh $i "ps -ef | grep file-flume-kafka | grep -v grep |awk '{print \$2}' | xargs kill"
  17.         done
  18. };;
  19. esac
复制代码

说明1:nohup,该命令可以在你退出帐户/关闭终端之后继续运行相应的进程。nohup就是不挂起的意思,不挂断地运行命令。
说明2:/dev/null代表linux的空设备文件,所有往这个文件里面写入的内容都会丢失,俗称“黑洞”。
标准输入0:从键盘获得输入 /proc/self/fd/0
标准输出1:输出到屏幕(即控制台) /proc/self/fd/1
错误输出2:输出到屏幕(即控制台) /proc/self/fd/2
2)增加脚本执行权限
  1. [kgg@hadoop101 bin]$ chmod 777 f1.sh
复制代码

3)f1集群启动脚本
  1. [kgg@hadoop101 module]$ f1.sh start
复制代码

4)f1集群停止脚本
  1. [kgg@hadoop101 module]$ f1.sh stop
复制代码

最新经典文章,欢迎关注公众号



本帖被以下淘专辑推荐:

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条