用户组:游客
本篇文章思考的问题:为什么Hadoop家族要加入Spark?MapReduce能否改善,MapReduce适合什么场景,是否MapReduce一无是处?Spark作为一个通用的并行计算框架,已经成为继Hadoop之后又一大热门开元项目,逐渐获得很多 ...
查看 »