搜索
搜 索
本版
文章
帖子
用户
图文精华
hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布 ...
首页
Portal
专题
BBS
面试
办公|编程助手
更多
登录
注册
用户组:游客
主题
帖子
云币
我的帖子
我的收藏
我的好友
我的勋章
设置
退出
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
About云-梭伦科技
»
专题
›
交流区
›
技术交流
›
异常错误
›
hbase+hive+impala 报gc overhead limit exceeded
0
2
0
分享
hbase+hive+impala 报gc overhead limit exceeded
是饭饭
2018-3-20 16:29:52
发表于
异常错误
[显示全部楼层]
只看大图
阅读模式
关闭右栏
2
12062
About云VIP帮助找工作和提升
简单说一下情况,由于impa查询hbase效率低,准备把hbase里的数据拷贝到impala里,数据量应该在几十亿到上百亿,机器配置是13个节点,每个节点128G内存,总是在三十多亿数据的时候报gc overhead limit exceeded,尝试修改了一些参数还是报错,现在应该怎么办。
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
显身卡
已有(2)人评论
电梯直达
正序浏览
s060403072
发表于 2018-3-20 16:56:37
是impala查询的时候报错吗?
总的来说,还是内存方面配置的问题。
比如取消内存限制
set mem_limit=-1
或则修改配置文件
Impala Daemon 内存限制
mem_limit=-1b
单池内存限制
default_pool_mem_limit=-1b
回复
使用道具
举报
显身卡
ruozedashuju
发表于 2018-4-6 18:23:37
ava.lang.OutOfMemoryError: GC overhead limit exceeded
分析:这个是JDK6新添的错误类型。是发生在GC占用大量时间为释放很小空间的时候发生的,是一种保护机制。解决方案是,关闭该功能,可以添加JVM的启动参数来限制使用内存: -XX:-UseGCOverheadLimit
添加位置是:mapred-site.xml 里新增项:mapred.child.java.opts 内容:-XX:-UseGCOverheadLimit
微信关注公众号 若泽大数据,或者加入大数据交流群: 707635769 一起交流学习大数据
回复
使用道具
举报
显身卡
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
发表新帖
是饭饭
中级会员
关注
3
主题
208
帖子
8
粉丝
TA的主题
hbase+hive+impala 报gc overhead limit exceeded
2018-3-20
CDH安装hue测试数据库连接报错
2017-3-3
关于hadoop集群硬件网络的问题
2017-2-7
24小时热文
字节三面过程,最终还是凉了
2024年求职攻略:掌握这4个习惯,迅速斩获
代码精进之路:从码农到工匠
eclipse搭建hadoop-3.1.2所需插件
2023年2月名企最新内推
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈