分享 spark读取hive表数据详解
SuperDove 2017-7-12 10:44
好久没写了,找了一个月的工作,心累,有些东西都快忘了(没实操) 环境:spark1.6 hive1.2.1 hadoop2.6.4 1.添加一下依赖包 spark-hive_2.10的添加为了能创建hivecontext对象 dependency groupIdorg.apache.spark/groupId &nbs ...
个人分类: hive|1730 次阅读|0 个评论
关闭

推荐上一条 /2 下一条