分享

Apache Spark发布1.3版本,引入Data Frames、改进Spark SQL和MLlib

pig2 2015-4-1 21:05:51 发表于 新版说明 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 1 16234

问题导读

1.spark1.3增加了哪些功能?
2.DataFrames可以用来做什么?
3.机器学习库Spark MLlib本文讲的实现了哪些新的学习算法?
4.Spark增加了哪些更高级功能?





Apache Spark项目发布了1.3版本。主要改进是增加了DataFrames API,更成熟的Spark SQL以及一些添加到机器学习库MLlib的新方法。此外,新版本可以更好地将Spark Streaming与Apache Kafka整合。

DataFrames API是新版本最主要的新增功能。采用R语言中的同名数据结构建模,目的是为列表数据提供更好的支持。DataFrame包含一张表,表中的列是有类型和命名的,可以提供过滤、分组或计算聚集等操作,类似SQL查询。

DataFrames与分布式SQL查询引擎Spark SQL紧密集成。 DataFrames可以构建自SQL查询结果集、弹性分布式数据集,或者从Parquet格式的文件中加载。到目前为止,RDDS(弹性分布式数据集)是Spark中主要的分布式数据采集类型,但DataFrames旨在为结构化数据提供更好的支持。

作为Spark的一部分,机器学习库Spark MLlib已经实现了一些新的的学习算法,例如隐含狄利克雷分布,这是一种确定文件主题、聚集相关文件的概率方法;又如多项逻辑递归,用于多类预测任务。MLlib开始部分支持分布式线性代数,包括以分布式方式存储矩阵块。这样的功能是许多较复杂的数据分析任务所必需的,包括矩阵分解,这往往涉及矩阵过大难以载入主存储器的问题。

在这些算法之上,Spark还增加了更高级功能,为数据分析,增加导入和导出学习过的预测模型,还有在1.2版本引入的管道API,使用户以高级的方式指定数据转换管道。这种管道通常用于提取数据科学领域的原始数据相关的特征。
此外,Spark现在已经与Apache Kafka直接集成,可以摄取实时事件数据。
Apache Spark最初开始于2009年,源自加州大学伯克利分校的AMPLab。它可以独立运行,或者安装在现有的Hadoop上运行,它还提供了比Hadoop原生的MapReduce处理模型更大的操作集合。它尽可能使用内存持有数据,因此相对于主要基于磁盘的MapReduce,它的性能得到了进一步改进。另外,通过收集缓冲区中的数据,然后周期性地处理这些小型的批处理,Spark具备了处理接近实时的事件数据的能力。在类似的项目中,Apache Flink不但有类似的功能集合,还包括查询优化和连续数据流处理引擎,CascadingScalding项目,提供了一组类似的高级操作,但运行在MapReduce处理模型之上。


感谢丁晓昀对本文的审校。


已有(1)人评论

跳转到指定楼层
feng01301218 发表于 2015-4-2 13:14:59
问题导读

1.spark1.3增加了哪些功能?
2.DataFrames可以用来做什么?
3.机器学习库Spark MLlib本文讲的实现了哪些新的学习算法?
4.Spark增加了哪些更高级功能
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条