在Hadoop 2.2.0上部署Spark

查看数: 14846 | 评论数: 2 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2014-2-1 22:44

正文摘要:

需要注意两点:(1)使用的Hadoop必须是2.0系列,比如0.23.x,2.0.x,2.x.x或CDH4、CDH5等,将Spark运行在Hadoop上,本质上是将Spark运行在Hadoop YARN上,因为Spark自身只提供了作业管理功能,资源调度要依托于第三 ...

回复

月岩 发表于 2014-6-18 22:08:01
学习一下  很好
9528 发表于 2014-2-18 10:14:35
学习一个,楼主辛苦了
关闭

推荐上一条 /2 下一条