分享

Hive 基本面试 Hive 数据分析面试+Flume+Kafka面试

问题导读:


1、分组TopN如何实现?
2、Flume如何保证数据的可靠性?
3、Kafk 数据丢失问题,及如何保证?
4、Kafka如何保证消息顺序?
5、Spark Join常见分类以及基本实现机制有哪些?



一、Hive 基本面试
1、什么是 metastore
  metadata 即元数据。包含 database、tabel、column names、partitions 信息、bucketing 信息等的元数据信息。
  元数据默认是存储在 Derby 中,建议存储在关系型数据库中。

2、metastore 安装方式有什么区别
内嵌模式
  内嵌模式使用的是内嵌的 Derby 数据库来存储元数据,也不需要额外起 Metastore 服务。这个是默认的,配置简单,但是一次只能一个客户端连接,适用于用来实验,不适用于生产环境。

本地元存储
  本地安装 mysql 替代 derby 存储元数据,这种安装方式和嵌入式的区别在于,不再使用内嵌的 Derby 作为元数据的存储介质,而是使用其他数据库比如 MySQL 来存储元数据。hive 服务和 metastore 服务运行在同一个进程中,mysql 是单独的进程,可以同一台机器,也可以在远程机器上。

远程元存储(HiveServer2)
  Hive 服务和 metastore 在不同的进程内,可能是不同的机器,该模式需要将 hive.metastore.uris 设置为 metastore 服务器 URL,如果有多个 metastore 服务器,将 URL 之间用逗号分隔,metastore 服务器 URL 的格式为 thrift://127.0.0.1:9083。

3、什么是 Managed Table 跟 External Table?
1、Hive 有两种类型的表 Managed Table(内部表) 跟 External Table(外部表)。
2、Managed Table:也被称作 Internal table,这种表是 hive 的默认类型。如果你在创建表的时候没有指明 Managed 或者 External,那么默认就会给你创建 Managed Table。
  a、Managed Table 的数据,会存放在 HDFS 中的特定的位置中,通常是 /user/username/hive/warehouse
  b、我们可以使用 describe formatted table_name; 命令来查看表的信息。
  c、当你删除 drop table table_name; 删除表时,数据文件也会一并删除。
3、External Table:特别适用于想要在 Hive 之外使用表的数据的情况.当你删除 External Table 时,只是删除了表的元数据,它的数据并没有被删除。

4、什么时候使用 Managed Table 跟 External Table?
● Managed Table
    ● 适用于临时创建的中间表
● External Table
    ● 适用于数据多部门共享

5、hive 有哪些复合数据类型?
1、MAP
[mw_shl_code=text,true]
    a.Map 复合数据类型提供了 key-value 对存储,你可以通过 key 获取 value。
    b.zhangsan Math:90,Chinese:92,English:78
        i.create table score_map(name string, score map<string, int>) map keys terminated by ':';
        ii.select name, score['English'], size(score) from score_map;[/mw_shl_code]
2、STRUCT
[mw_shl_code=text,true]    a.Struct 是不同数据类型元素的集合。
    b.zhangsan Math,90
        i.create table course_struct(name string, course struct<course: string, score: int>) collection items terminated by ',';
        ii.select name, course.score, course.course from course_struct;[/mw_shl_code]
3、ARRAY
[mw_shl_code=text,true]a.Array 是同类型元素的集合.
    b.zhangsan beijing,shanghai,hangzhou
        i.create table person_array(name string, work_locations array<string>) collection items terminated by ',';
        ii.select name, work_locations[0], size(work_locations) from person_array;[/mw_shl_code]
4、UNIONTYPE
[mw_shl_code=text,true] a.它代表一个可以具有属于你所选择的任何数据类型的值的列。
    b.官方支持不完整,在 join 查询中,group by 或者 where 字句会失败,目前可以不用这个集合。
[/mw_shl_code]
6、hive 分区有什么好处?
● 最大的好处就是可以更快的执行查询。
● 在分区的帮助下,将使用分区列的名称创建一个子目录,并且当使用 WHERE 子句执行查询时,将只扫描特定的子目录,而不是扫描整个表。这时可以更快地执行查询。

7、hive 分区跟分桶的区别
● 分区: 是以字段的形式在表结构中存在,通过 describe table 命令可以查看到字段存在,但是该字段不存放实际的数据内容,仅仅是分区的表示(伪列)。
● 分桶:对于表(table)或者分区,Hive 可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive 也是针对某一列进行桶的组织。Hive 采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。实际使用比较少。

8、hive 如何动态分区
● 与分区有关的有两种类型的分区:静态和动态。在静态分区中,您将在加载数据时(显式)指定分区列。
● 而在动态分区中,您将数据推送到 Hive,然后 Hive 决定哪个值应进入哪个分区。要启用动态分区,请设置下面的属性:hive.exec.dynamic.parition.mode=nonstrict;
[mw_shl_code=text,true]insert overwrite table emp_details_partitioned partition(location)
select * from emp_details;[/mw_shl_code]
9、map join 优化手段
[mw_shl_code=text,true]Hive 可以进行多表 Join。Join 操作尤其是 Join 大表的时候代价是非常大的。

表 Join 的顺序(大表放在后面)
    当 Hive 执行 Join 时,需要选择哪个表被流式传输(stream),哪个表被缓存(cache)。 Hive 将 JOIN 语句中的最后一个表用于流式传输,因此我们需要确保这个流表在两者之间是最大的。
    如果要在不同的 key 上 join 更多的表,那么对于每个 join 集,只需在 ON 条件右侧指定较大的表。

Sort-Merge-Bucket(SMB) Map Join
    它是另一种 Hive join 优化技术,使用这个技术的前提是所有的表都必须是桶分区(bucket)和排序了的(sort)。
    set hive.enforce.sortmergebucketmapjoin=false;  -- 当用户执行 bucket map join 的时候,发现不能执行时,禁止查询。
    set hive.auto.convert.sortmerge.join=true;  -- 如果 join 的表通过 sort merge join 的条件,join 是否会自动转换为 sort merge join。
    set hive.optimize.bucketmapjoin=true;  -- bucket map join 优化
    set hive.optimize.bucketmapjoin.sortedmerge=true;  -- bucket map join 优化
    set hive.auto.convert.join=false;  -- 禁止自动 map side join 发生[/mw_shl_code]
10、如何创建 bucket 表?
● 默认情况下,在 Hive 中禁用分桶功能,可以通过设置下面的属性强制启用分桶功能:hive.enforce.bucketing=true;

11、hive 有哪些 file formats
[mw_shl_code=text,true]Text File format : 默认格式,数据不做压缩,磁盘开销大,数据解析开销大。

Sequence File format :

    SequenceFile 是 Hadoop API 提供的一种二进制文件支持,其具有使用方便、可分割、可压缩的特点。
    SequenceFile 支持三种压缩选择:NONE, RECORD, BLOCK。 Record 压缩率低,一般建议使用 BLOCK 压缩。

RC file format : RCFILE 是一种行列存储相结合的存储方式。首先,其将数据按行分块,保证同一个 record 在一个块上,避免读一个记录需要读取多个 block。其次,块数据列式存储,有利于数据压缩和快速的列存取。RCFile 目前没有性能优势,只有存储上能省 10% 的空间。

Parquet : 列式数据存储。
AVRO : avro Schema 数据序列化。
ORC : 对RCFile做了一些优化,支持各种复杂的数据类型。[/mw_shl_code]
12、hive 最优的 file formats 是什么?
[mw_shl_code=text,true]ORC file formats:
    1、ORC 将行的集合存储在一个文件中,并且集合内的行数据将以列式存储。采用列式格式,压缩非常容易,从而降低了大量的存储成本。
    2、当查询时,会查询特定列而不是查询整行,因为记录是以列式存储的。
    3、ORC 会基于列创建索引,当查询的时候会很快。[/mw_shl_code]
13、hive 传参
[mw_shl_code=text,true]使用 env 获取当前 shell 环境的环境变量
eg: export datatime=’2017-11-10’
select * from tabliname where datatime = ${env:datatime};

使用 --hivevar 方式传入
hive --hivevar datatime ='datatime' --hivevar limit=10 -f filename.sql
select * from tablename where datatime = ${hivevar:datatime} limit ${hivevar:limit}[/mw_shl_code]
14、order by 和 sort by 的区别
使用 order by 会引发全局排序,有可能会导致任务失败。
使用 distribute by + sort by 替代方案,进行优化。

15、hive 跟 hbase 的区别
hive 支持 sql 查询,hbase 不支持。
hive 不支持 record 级(一行记录)的更新,删除操作。
hive 定义为数据仓库,hbase 定义为 nosql 数据库。

二、Hive 数据分析面试
场景举例:北京市学生成绩分析
成绩的数据格式:时间,学校,年纪,姓名,科目,成绩
样例数据如下:
[mw_shl_code=text,true]
2013,北大,1,裘容絮,语文,97
2013,北大,1,庆眠拔,语文,52
2013,北大,1,乌洒筹,语文,85
2012,清华,0,钦尧,英语,61
2015,北理工,3,冼殿,物理,81
2016,北科,4,况飘索,化学,92
2014,北航,2,孔须,数学,70
2012,清华,0,王脊,英语,59
2014,北航,2,方部盾,数学,49
2014,北航,2,东门雹,数学,77[/mw_shl_code]
问题:
1、分组 TopN,选出今年每个学校、每个年级、分数前三的科目
[mw_shl_code=sql,true]hive -e "

set mapreduce.job.queuename=low;

select t.*
from
(
select
       school,
       class,
       subjects,
       score,
       row_number() over (partition by school, class, subjects order by score desc) rank_code
from spark_test_wx
where partition_id = "2017"
) t
where t.rank_code <= 3;
"[/mw_shl_code]
结果截图如下:
VLckJe.png
详解如下:
&#8195;&#8195;row_number函数:row_number() 按指定的列进行分组生成行序列,从 1 开始,如果两行记录的分组列相同,则行序列 +1。
&#8195;&#8195;over 函数:是一个窗口函数。
&#8195;&#8195;over (order by score) 按照 score 排序进行累计,order by 是个默认的开窗函数。
&#8195;&#8195;over (partition by class) 按照班级分区。
&#8195;&#8195;over (partition by class order by score) 按照班级分区,并按着分数排序。
&#8195;&#8195;over (order by score range between 2 preceding and 2 following) 窗口范围为当前行的数据幅度减2加2后的范围内的数据求和。

2、今年,北航,每个班级,每科的分数,及分数上下浮动 2 分的总和
[mw_shl_code=sql,true]select school, class, subjects, score,
sum(score) over (order by score range between 2 preceding and 2 following) sscore
from spark_test_wx
where partition_id = "2017" and school="北航";[/mw_shl_code]
结果截图如下:
VLcARH.png

over (order by score rows between 2 preceding and 2 following):窗口范围为当前行前后各移动2行。
VLcFiD.png

提问,上述 sql 有没有可优化的点?
[mw_shl_code=sql,true]row_number() over (distribute by school, class, subjects sort by score desc) rank_code[/mw_shl_code]
3、where 与 having:今年,清华 1 年级,总成绩大于 200 分的学生以及学生数
[mw_shl_code=sql,true]hive -e "
set mapreduce.job.queuename=low;
select school,class,name,sum(score) as total_score,
count(1) over (partition by school, class) nct
from spark_test_wx
where partition_id = "2017" and school="清华" and class = 1
group by school, class, name
having total_score > 200;
"[/mw_shl_code]
结果截图如下:
VLcPIO.png

having 是分组(group by)后的筛选条件,分组后的数据组内再筛选,也就是说 HAVING 子句可以让我们筛选成组后的各组数据。
where 则是在分组,聚合前先筛选记录。也就是说作用在 GROUP BY 子句和 HAVING 子句前。

4、情景分析题
今年加入进来了 10 个学校,学校数据差异很大计算每个学校的平均分。
该题主要是考察数据倾斜的处理方式。
group by 方式很容易产生数据倾斜,需要注意一下几点:
[mw_shl_code=text,true]Map 端部分聚合
hive.map.aggr=true(用于设定是否在 map 端进行聚合,默认值为真,相当于 combine)
hive.groupby.mapaggr.checkinterval=100000(用于设定 map 端进行聚合操作的条数)

有数据倾斜时进行负载均衡
设定 hive.groupby.skewindata,当选项设定为 true 是,生成的查询计划有两个 MapReduce 任务。

(先打散数据)
第一个 MapReduce 中,map 的输出结果集合会随机分布到 reduce 中, 每个 reduce 做部分聚合操作,并输出结果。这样处理的结果是,相同的 group by key 有可能分发到不同的 reduce 中,从而达到负载均衡的目的;

第二个 MapReduce 任务再根据预处理的数据结果按照 group by key 分布到 reduce 中(这个过程可以保证相同的 group by key 分布到同一个 reduce 中),最后完成最终的聚合操作。[/mw_shl_code]
5、情景分析题
假设我创建了一张表,其中包含了 2016 年客户完成的所有交易的详细信息:
[mw_shl_code=sql,true]CREATE TABLE transaction_details (cust_id INT, amount FLOAT, month STRING, country STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘,’ ;[/mw_shl_code]
现在我插入了 100 万条数据,我想知道每个月的总收入。

问:如何高效的统计出结果,写出步骤即可。
[mw_shl_code=sql,true]1.首先分析这个需求,其实并不难,但是由于题目说了,要高效.而且数据量也不小,直接写sql查询估计肯定会挂.
2.分析:
        a.我们可以通过根据每个月对表进行分区来解决查询慢的问题。 因此,对于每个月我们将只扫描分区的数据,而不是整个数据集。
        b.但是我们不能直接对现有的非分区表进行分区。所以我们会采取以下步骤来解决这个问题:
        c.创建一个分区表,partitioned_transaction:
                i.create table partitioned_transaction (cust_id int, amount float, country string) partitioned by (month string) row format delimited fields terminated by ‘,’ ;
        d.在 Hive 中启用动态分区:
                i.SET hive.exec.dynamic.partition=true;
                ii.SET hive.exec.dynamic.partition.mode=nonstrict;
        e.将数据从非分区表导入到新创建的分区表中:
                i.insert overwrite table partitioned_transaction partition (month) select cust_id, amount, country, month from transaction_details;
        f.使用新建的分区表实现需求。[/mw_shl_code]
三、Flume + Kafka 面试
1、flume 如何保证数据的可靠性?
● Flume 提供三种可靠性:JDBC、FILE、MEMORY
● Flume 使用事务的办法来保证 event 的可靠传递。Source 和 Sink 分别被封装在事务中,这些事务由保存 event 的存储提供或者由 Channel 提供。这就保证了 event 在数据流的点对点传输中是可靠的。
2、kafka 数据丢失问题,及如何保证?
(1)、kafka 数据丢失问题
[mw_shl_code=text,true]a、acks=1    的时候(只保证写入 leader 成功),如果刚好 leader 挂了,则数据会丢失。
b、acks=0    的时候,使用异步模式的时候,该模式下 kafka 无法保证消息,有可能会丢。[/mw_shl_code]
(2)、brocker 如何保证不丢失
[mw_shl_code=text,true]a、acks=all      所有副本都写入成功并确认。
b、retries=一个合理值        kafka 发送数据失败后的重试值。(如果总是失败,则可能是网络原因)
c、min.insync.replicas=2     消息至少要被写入到这么多副本才算成功。
d、unclean.leader.election.enable=false      关闭 unclean leader 选举,即不允许非 ISR 中的副本被选举为 leader,以避免数据丢失。[/mw_shl_code]
(3)、consumer 如何保证不丢失?
[mw_shl_code=text,true]a、如果在消息处理完成前就提交了 offset,那么就有可能造成数据的丢失。
b、enable.auto.commit=false     关闭自动提交 offset。
c、处理完数据之后手动提交。[/mw_shl_code]
3、kafka 工作流程原理
大致原理即可。有几个点稍微详细即可。

4、kafka 保证消息顺序
1、全局顺序
&#8195;&#8195;a、全局使用一个生产者,一个分区,一个消费者。
2、局部顺序
&#8195;&#8195;a、每个分区是有序的,根据业务场景制定不同的 key 进入不同的分区。

5、zero copy 原理及如何使用?
(1)、zero copy 在内核层直接将文件内容传送给网络 socket,避免应用层数据拷贝,减小 IO 开销。
(2)、java.nio.channel.FileChannel 的 transferTo() 方法实现 zero copy。

6、spark Join 常见分类以及基本实现机制
1、shuffle hash join、broadcast hash join 以及 sort merge join。

2、shuffle hash join
[mw_shl_code=text,true]
小表 join 大表,依次读取小表的数据,对于每一行数据根据 join key 进行 hash,hash 到对应的 Bucket(桶),生成 hash table 中的一条记录。
数据缓存在内存中,如果内存放不下需要 dump 到外存。
再依次扫描大表的数据,使用相同的 hash 函数映射 Hash Table 中的记录,映射成功之后再检查 join 条件,如果匹配成功就可以将两者 join 在一起。[/mw_shl_code]
3、broadcast hash join
[mw_shl_code=text,true]如果小表数据量增大,内存不能放下的时候,分别将两个表按照 join key 进行分区,将相同 join key 的记录重分布到同一节点,两张表的数据会被重分布到集群中所有节点。这个过程称为 shuffle(网络混启)。
每个分区节点上的数据单独执行单机 hash join 算法。[/mw_shl_code]
4、sort merge join
[mw_shl_code=text,true]两张大表 join 采用了 sort merge join 算法:
    shuffle 阶段:将两张大表根据 join key 进行重新分区,两张表数据会分布到整个集群,以便分布式并行处理。
    sort 阶段:对单个分区节点的两表数据,分别进行排序。
    merge 阶段:对排好序的两张分区表数据执行 join 操作。join 操作很简单,分别遍历两个有序序列,碰到相同 join key 就 merge 输出,否则取更小一边。[/mw_shl_code]

128G 内存、多磁盘、万兆网卡、吞吐(几千到一万)



最新经典文章,欢迎关注公众号

来源:CSDN

作者:Lan&Jun

原文:https://blog.csdn.net/u012990179/article/details/92800609


没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条