分享

如何查看spark与hadoop、kafka、Scala、flume、hive等兼容版本【适用于任何版本】

问题导读

1.通过什么途径,可以查看与spark兼容的组件版本?
2.如何获取pom文件?
3.pom文件中包含了哪些信息?
4.spark编译通过什么参数可以指定hadoop版本?





当我们安装spark的时候,很多时候都会遇到这个问题,如何找到对应spark的各个组件的版本,找到比较标准的版本兼容信息。答案在spark源码中的pom文件。首先我们从官网下载源码。进入官网
[mw_shl_code=bash,true]http://spark.apache.org[/mw_shl_code]
选择download,然后我们看到下面内容
[mw_shl_code=bash,true]# Master development branch
git clone git://github.com/apache/spark.git

# Maintenance branch with stability fixes on top of Spark 2.2.0
git clone git://github.com/apache/spark.git -b branch-2.2[/mw_shl_code]
spark code.jpg

我们看到上面需要使用git下载。网盘下载源码
链接:http://pan.baidu.com/s/1dFu9DrN 密码:daas

如果你是window,那么可以装一个Linux虚拟机,或则直接在window上安装。window安装遇到的问题可参考
win7安装 git软件下载以及遇到的问题解决解决方法
http://www.aboutyun.com/forum.php?mod=viewthread&tid=8521
这里使用Linux安装,更加方便。执行下面命令

[mw_shl_code=bash,true]sudo yum install perl openssh git -y
[/mw_shl_code]
上面安装完毕,下载源码
[mw_shl_code=bash,true]git clone git://github.com/apache/spark.git[/mw_shl_code]
当然如果你不想这么麻烦,只想查看pom.xml文件,也可以直接访问
[mw_shl_code=bash,true]github.com/apache/spark.git[/mw_shl_code]
然后打开pom.xml即可
[mw_shl_code=bash,true]https://github.com/apache/spark/blob/master/pom.xml[/mw_shl_code]
这时候我们可以查看里面的兼容信息spark的版本为2.3.0-SNAPSHOT
1.jpg

接着我们找到<properties>里面有各种所需软件的信息,比如
jdk1.8,hadoop位2.6.5,2.7.1,2.7.3。
flume版本为flume1.6.0,
zookeeper版本为3.4.6
hive为:1.2.1
scala为:2.11.8


这样我们在安装的时候就找到它们版本兼容的依据。
当然官网提供一种编译的版本,剩下的需要我们自己编译。下一篇我们讲该如何编译我们想要的版本。
1.jpg
这里需要说明的一个地方即maven的profile,是为了适应不同的版本。我们在编译的时候,可以通过-P指定版本

hadoop兼容.jpg
下一篇
构建基于hadoop的spark安装包
http://www.aboutyun.com/forum.php?mod=viewthread&tid=23257



本帖被以下淘专辑推荐:

已有(3)人评论

跳转到指定楼层
hello2018 发表于 2018-5-4 16:02:59
补充信息:
如果想下载任何一个spark版本查看兼容信息
比如spark1.6的源码
需要经过下面三个步骤:

第一步:找到对应版本spark1.6
1.png


第二步:找到source code
2.png

第三步:下载

3.png

就可以获取源码了的pom.xml文件了




回复

使用道具 举报

若无梦何远方 发表于 2019-8-29 21:04:55
上官网
找对应的Source
然后下载
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条