分享

面试题大数据【系统】数据倾斜解决思路【Hadoop、Spark、Flink等】

pig2 2019-12-5 08:19:00 发表于 总结型 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 1 3946
问题导读

1.数据倾斜发生的原因是什么?
2.数据倾斜有哪些表现?
3.面对数据倾斜,大数据组件都是如何调优的?

数据倾斜问题描述
数据倾斜是我们在处理大数据量问题时绕不过去的问题,也是在面试中几乎必问的考点。正常的数据分布理论上都是倾斜的,就是我们所说的'二八原理':80%的财富集中在20%的人手中, 80%的用户只使用20%的功能 , 20%的用户贡献了80%的访问量。简单来说数据倾斜就是数据的key 的分化严重不均,造成一部分数据很多,一部分数据很少的局面。

出现数据倾斜的表现:
相信大部分做数据的童鞋们都会遇到数据倾斜,数据倾斜会发生在数据开发的各个环节中,比如:用Hive算数据的时候reduce阶段卡在99.99%用SparkStreaming做实时算法时候,一直会有executor出现OOM的错误,但是其余的executor内存使用率却很低。

Hadoop
当我们看任务进度长时间维持在99%,这里如果详细的看日志或者和监控界面的话会发现:

有一个多几个reduce卡住
各种container报错OOM
读写的数据量极大,至少远远超过其它正常的reduce
伴随着数据倾斜,会出现任务被kill等各种诡异的表现
Spark
Spark中的数据倾斜也很常见,Spark中一个 stage 的执行时间受限于最后那个执行完的 task,因此运行缓慢的任务会拖累整个程序的运行速度。过多的数据在同一个task中执行,将会把executor撑爆,造成OOM,程序终止运行。

Flink
使用Window、GroupBy、Distinct等聚合函数时,频繁出现反压,消费速度很慢,个别的task会出现OOM,调大资源也无济于事。


数据倾斜原理和解决方案


在做数据运算的时候会设计到,count distinct、group by、join等操作,都会触发Shuffle动作。一旦触发,所有相同 key 的值就会拉到一个或几个节点上,发生单点问题。

一个简单的场景,在订单表中,北京和上海两个地区的订单数量比其他地区高几个数量级。那么进行聚合的时候就会出现数据热点。

解决数据倾斜的几个思路:

  • 业务上:避免热点key的设计或者打散热点key,例如可以把北京和上海分成地区,然后单独汇总。
  • 技术上:在热点出现时,需要调整方案避免直接进行聚合,可以借助框架本身的能力,例如进行mapside-join。
  • 参数上:无论是Hadoop、Spark还是Flink都提供了大量的参数可以调整。



Hadoop/Hive参数
mapside-join,把本地数据shuffle
对于group by或distinct,设定 hive.groupby.skewindata=true
合并小文件
压缩文件

Spark 参数
使用map join 代替reduce join
提高shuffle并行度

Flink 参数
MiniBatch设置,推荐参考FLink1.9调优之:当SUM、COUNT、MAX、MIN、AVG、DISTINCT性能慢时,该如何调优
https://www.aboutyun.com/forum.php?mod=viewthread&tid=28119

并行度设置
推荐参考
https://www.aboutyun.com/home.php?mod=space&uid=21&do=blog&id=3733



最新经典文章,欢迎关注公众号

原文链接:
https://blog.csdn.net/u013411339/article/details/103132207
作者:大数据技术与架构


已有(1)人评论

跳转到指定楼层
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条