分享

hive使用spark引擎,设置yarn-cluster,同时只能有一个连接?

langke93 发表于 2018-5-5 07:29:29
1440932086.47.jpg

看下上面图,猜测跟spark没有关系,看看问题是否出在hive客户端的配置。
回复

使用道具 举报

kinglee_zs 发表于 2018-5-7 22:33:07
感谢各位热心解答,我也查了N次度娘,后来查找方向转为同时运行多个yarn application,终于在Cloudera网页上找到个解决办法,原来是yarn参数的问题,目前严重怀疑是测试机内存不足的影响,明天再试多几次,要好好研究一下。

http://community.cloudera.com/t5 ... ent/m-p/39845#M1595
回复

使用道具 举报

kinglee_zs 发表于 2018-5-7 22:36:52
怎么第一次发的回复不见了。。

感谢各位的热情解答和提供了方向,我也查阅了N次度娘,后来转了方向查找yarn application的问题,终于在cloudera网页上找到了方法,目前试过可以同时有两个application,分别运行两个连接任务。今天试过了可以,明天要多试进行验证。。。

http://community.cloudera.com/t5 ... ent/m-p/39845#M1595
回复

使用道具 举报

12
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条