分享

Spark 1.4为DataFrame新增的统计与数学函数


问题导读

1.Spark 1.4本文涉及了哪些函数?
2.随机数据生成函数的作用是什么?
3.为DataFrame新增加的数学函数本文介绍了哪些?







目前,Spark 1.4版本在社区已经进入投票阶段,在Github上也提供了1.4的分支版本。最近,Databricks的工程师撰写了博客,介绍了Spark 1.4为DataFrame新增的统计与数学函数。这篇博客介绍的函数主要包括:
  • 随机数据生成(Random Data Generation)
  • 概要与描述性统计(Summary and descriptive statistics)
  • 协方差与相关性(Sample covariance and correlation)
  • 交叉列表(Cross tabulation)
  • 频率项(Frequent items)
  • 数学函数(Mathematical functions)
随机数据生成(Random Data Generation)主要是为测试数据提供方便快捷的接口,如range、rand和randn。rand函数提供均匀正态分布,而randn则提供标准正态分布。在调用这些函数时,还可以指定列的别名,以方便我们对这些数据进行测试。
概要与描述性统计(Summary and Descriptive Statistics)包含了计数、平均值、标准差、最大值、最小值运算。只需要针对DataFrame调用describe函数即可:
[mw_shl_code=sql,true]```
from pyspark.sql.functions import rand, randn
df = sqlContext.range(0, 10).withColumn('uniform', rand(seed=10)).withColumn('normal', randn(seed=27))

df.describe().show()
```[/mw_shl_code]
可能的结果显示为:
summaryiduniformnormal
count101010
mean4.50.5215336029384192-0.01309370117407197
stddev2.87228132326901430.2293281628206530.5756058014772729|
min00.19657711634539565-0.7195024130068081
max90.99704124770322091.0900096472044518
交叉列表为一组变量提供了频率分布表,在统计学中被经常用到。例如在对租车行业的数据进行分析时,需要分析每个客户(name)租用不同品牌车辆(brand)的次数。此时,就可以直接调用crosstab函数。例如:
[mw_shl_code=bash,true]df.stat.crosstab("name", "brand").show()[/mw_shl_code]
但是需要注意的是,必须确保要进行交叉列表统计的列的基数不能太大。

为DataFrame新增加的数学函数都是我们在做数据分析中常常用到的,包括cos、sin、floor、ceil以及pow、hypot等。以上新特性都会在Spark 1.4版本中得到支持,并且支持Python、Scala和Java。在未来发布的版本中,DataBricks还将继续增强统计功能,并使得DataFrame可以更好地与Spark机器学习库MLlib集成,例如Spearman Correlation(斯皮尔曼相关)、针对协方差运算与相关性运算的聚合函数等。

若希望了解这些新增特性的具体内容,可以持续关注DataBricks的开发者博客。

来源:infoq

已有(1)人评论

跳转到指定楼层
小南3707 发表于 2015-6-10 11:21:54
不错!            
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条