cloudera如何在spark-shell命令行执行spark hql

查看数: 130103 | 评论数: 6 | 收藏 2
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2015-3-18 12:09

正文摘要:

问题导读 1.cloudera manager装好的spark,直接执行spark-shell进入命令行后不执行,该如何解决? 2.执行spark-shell从下面步骤,能否得出 原理? 前面介绍如何编译包含hive的spark-assembly.jar了 ...

回复

jeff_zang 发表于 2017-8-20 09:12:31
尴尬了,
jeff_zang 发表于 2017-8-20 09:05:37
不错,挺好的
恋枫缩影 发表于 2017-8-16 02:27:46
正好需要这块东西,谢谢楼主!
einhep 发表于 2016-12-19 09:55:30
撑伞的鱼 发表于 2015-7-1 14:12
**** 作者被禁止或删除 内容自动屏蔽 ****

尝试修改spark-default.conf
具体如下
spark.driver.extraJavaOption -Dhdp.version=current
spark.yarn.am.extraJavaOption -Dhdp.version=current
然后启动spark shell
bin/spark-shell --master yarn-cluent

撑伞的鱼 发表于 2015-7-1 14:12:19
您好,我现在按照您帖子中的步骤执行下来,在启动spark-shell时出错了,无法往下执行了,网上也没有找到具体解决这个错误的方法,只好向您请教了,还望您能指导一下,非常感谢!附件中是我错误的截图信息,望您能不吝赐教。
错误截图1.png
错误截图2.png
错误截图3.png
错误截图4.png
错误截图5.png
lixiaoliang7 发表于 2015-3-19 10:14:19
这个很赞,收藏了。
关闭

推荐上一条 /2 下一条