分享

Spark中文手册4:Spark之基本概念(2)

本帖最后由 pig2 于 2015-2-11 18:54 编辑

问题导读
1、什么是DStream转换?
2、什么是窗口计算?
3、怎样最有效的将发生数据到外部系统?






本文接前篇:
Spark中文手册-编程指南
Spark之一个快速的例子Spark之基本概念
Spark之基本概念



DStream中的转换(transformation
和RDD类似,transformation允许从输入DStream来的数据被修改。DStreams支持很多在RDD中可用的transformation算子。一些常用的算子如下所示:

   
Transformation
   
Meaning
map(func)
利用函数func处理原DStream的每个元素,返回一个新的DStream
flatMap(func)
与map相似,但是每个输入项可用被映射为0个或者多个输出项
filter(func)
返回一个新的DStream,它仅仅包含源DStream中满足函数func的项
repartition(numPartitions)
通过创建更多或者更少的partition改变这个DStream的并行级别(level of parallelism)
union(otherStream)
返回一个新的DStream,它包含源DStream和otherStream的联合元素
count()
通过计算源DStream中每个RDD的元素数量,返回一个包含单元素(single-element)RDDs的新DStream
reduce(func)
利用函数func聚集源DStream中每个RDD的元素,返回一个包含单元素(single-element)RDDs的新DStream。函数应该是相关联的,以使计算可以并行化
countByValue()
这个算子应用于元素类型为K的DStream上,返回一个(K,long)对的新DStream,每个键的值是在原DStream的每个RDD中的频率。
reduceByKey(func,  [numTasks])
当在一个由(K,V)对组成的DStream上调用这个算子,返回一个新的由(K,V)对组成的DStream,每一个key的值均由给定的reduce函数聚集起来。注意:在默认情况下,这个算子利用了Spark默认的并发任务数去分组。你可以用numTasks参数设置不同的任务数
join(otherStream,  [numTasks])
当应用于两个DStream(一个包含(K,V)对,一个包含(K,W)对),返回一个包含(K, (V, W))对的新DStream
cogroup(otherStream,  [numTasks])
当应用于两个DStream(一个包含(K,V)对,一个包含(K,W)对),返回一个包含(K, Seq[V], Seq[W])的元组
transform(func)
通过对源DStream的每个RDD应用RDD-to-RDD函数,创建一个新的DStream。这个可以在DStream中的任何RDD操作中使用
updateStateByKey(func)
利用给定的函数更新DStream的状态,返回一个新"state"的DStream。
最后两个transformation算子需要重点介绍一下:

UpdateStateByKey操作
updateStateByKey操作允许不断用新信息更新它的同时保持任意状态。你需要通过两步来使用它

  • 定义状态-状态可以是任何的数据类型
  • 定义状态更新函数-怎样利用更新前的状态和从输入流里面获取的新值更新状态
让我们举个例子说明。在例子中,你想保持一个文本数据流中每个单词的运行次数,运行次数用一个state表示,它的类型是整数
  1. def updateFunction(newValues: Seq[Int], runningCount: Option[Int]): Option[Int] = {
  2.     val newCount = ...  // add the new values with the previous running count to get the new count
  3.     Some(newCount)
  4. }
复制代码

这个函数被用到了DStream包含的单词上
  1. import org.apache.spark._
  2. import org.apache.spark.streaming._
  3. import org.apache.spark.streaming.StreamingContext._
  4. // Create a local StreamingContext with two working thread and batch interval of 1 second
  5. val conf = new SparkConf().setMaster("local[2]").setAppName("NetworkWordCount")
  6. val ssc = new StreamingContext(conf, Seconds(1))
  7. // Create a DStream that will connect to hostname:port, like localhost:9999
  8. val lines = ssc.socketTextStream("localhost", 9999)
  9. // Split each line into words
  10. val words = lines.flatMap(_.split(" "))
  11. // Count each word in each batch
  12. val pairs = words.map(word => (word, 1))
  13. val runningCounts = pairs.updateStateByKey[Int](updateFunction _)
复制代码

更新函数将会被每个单词调用,newValues拥有一系列的1(从 (词, 1)对而来),runningCount拥有之前的次数。要看完整的代码,见例子
Transform操作
transform操作(以及它的变化形式如transformWith)允许在DStream运行任何RDD-to-RDD函数。它能够被用来应用任何没在DStream API中提供的RDD操作(It can be used to apply any RDD operation that is not exposed in theDStream API)。 例如,连接数据流中的每个批(batch)和另外一个数据集的功能并没有在DStream API中提供,然而你可以简单的利用transform方法做到。如果你想通过连接带有预先计算的垃圾邮件信息的输入数据流 来清理实时数据,然后过了它们,你可以按如下方法来做:
  1. val spamInfoRDD = ssc.sparkContext.newAPIHadoopRDD(...) // RDD containing spam information
  2. val cleanedDStream = wordCounts.transform(rdd => {
  3.   rdd.join(spamInfoRDD).filter(...) // join data stream with spam information to do data cleaning
  4.   ...
  5. })
复制代码

事实上,你也可以在transform方法中用机器学习图计算算法

窗口(window)操作
Spark Streaming也支持窗口计算,它允许你在一个滑动窗口数据上应用transformation算子。下图阐明了这个滑动窗口。
11.png
如上图显示,窗口在源DStream上滑动,合并和操作落入窗内的源RDDs,产生窗口化的DStream的RDDs。在这个具体的例子中,程序在三个时间单元的数据上进行窗口操作,并且每两个时间单元滑动一次。 这说明,任何一个窗口操作都需要指定两个参数:





  • 窗口长度:窗口的持续时间
  • 滑动的时间间隔:窗口操作执行的时间间隔

这两个参数必须是源DStream的批时间间隔的倍数。
下面举例说明窗口操作。例如,你想扩展前面的例子用来计算过去30秒的词频,间隔时间是10秒。为了达到这个目的,我们必须在过去30秒的pairs DStream上应用reduceByKey 操作。用方法reduceByKeyAndWindow实现。
  1. // Reduce last 30 seconds of data, every 10 seconds
  2. val windowedWordCounts = pairs.reduceByKeyAndWindow((a:Int,b:Int) => (a + b), Seconds(30), Seconds(10))
复制代码

一些常用的窗口操作如下所示,这些操作都需要用到上文提到的两个参数:窗口长度和滑动的时间间隔

   
Transformation
   
Meaning
window(windowLength,  slideInterval)
基于源DStream产生的窗口化的批数据计算一个新的DStream
countByWindow(windowLength,  slideInterval)
返回流中元素的一个滑动窗口数
reduceByWindow(func,  windowLength, slideInterval)
返回一个单元素流。利用函数func聚集滑动时间间隔的流的元素创建这个单元素流。函数必须是相关联的以使计算能够正确的并行计算。
reduceByKeyAndWindow(func,  windowLength, slideInterval, [numTasks])
应用到一个(K,V)对组成的DStream上,返回一个由(K,V)对组成的新的DStream。每一个key的值均由给定的reduce函数聚集起来。注意:在默认情况下,这个算子利用了Spark默认的并发任务数去分组。你可以用numTasks参数设置不同的任务数
reduceByKeyAndWindow(func,  invFunc, windowLength, slideInterval, [numTasks])
A more efficient  version of the above reduceByKeyAndWindow() where the reduce value of each  window is calculated incrementally using the reduce values of the previous  window. This is done by reducing the new data that enter the sliding window,  and "inverse reducing" the old data that leave the window. An  example would be that of "adding" and "subtracting"  counts of keys as the window slides. However, it is applicable to only  "invertible reduce functions", that is, those reduce functions  which have a corresponding "inverse reduce" function (taken as  parameter invFunc. Like in reduceByKeyAndWindow, the number of reduce tasks  is configurable through an optional argument.
  
  
  
countByValueAndWindow(windowLength,  slideInterval, [numTasks])
应用到一个(K,V)对组成的DStream上,返回一个由(K,V)对组成的新的DStream。每个key的值都是它们在滑动窗口中出现的频率。
  
  
  
  

DStreams上的输出操作
输出操作允许DStream的操作推到如数据库、文件系统等外部系统中。因为输出操作实际上是允许外部系统消费转换后的数据,它们触发的实际操作是DStream转换。目前,定义了下面几种输出操作:
  
Output  Operation
  
Meaning
print()
在DStream的每个批数据中打印前10条元素,这个操作在开发和调试中都非常有用。在Python API中调用pprint()。
saveAsObjectFiles(prefix,  [suffix])
保存DStream的内容为一个序列化的文件SequenceFile。每一个批间隔的文件的文件名基于prefix和suffix生成。"prefix-TIME_IN_MS[.suffix]",在Python API中不可用。
saveAsTextFiles(prefix,  [suffix])
保存DStream的内容为一个文本文件。每一个批间隔的文件的文件名基于prefix和suffix生成。"prefix-TIME_IN_MS[.suffix]"
saveAsHadoopFiles(prefix,  [suffix])
保存DStream的内容为一个hadoop文件。每一个批间隔的文件的文件名基于prefix和suffix生成。"prefix-TIME_IN_MS[.suffix]",在Python API中不可用。
foreachRDD(func)
在从流中生成的每个RDD上应用函数func的最通用的输出操作。这个函数应该推送每个RDD的数据到外部系统,例如保存RDD到文件或者通过网络写到数据库中。需要注意的是,func函数在驱动程序中执行,并且通常都有RDD action在里面推动RDD流的计算。


利用foreachRDD的设计模式
dstream.foreachRDD是一个强大的原语,发送数据到外部系统中。然而,明白怎样正确地、有效地用这个原语是非常重要的。下面几点介绍了如何避免一般错误。





  • 经常写数据到外部系统需要建一个连接对象(例如到远程服务器的TCP连接),用它发送数据到远程系统。为了达到这个目的,开发人员可能不经意的在Spark驱动中创建一个连接对象,但是在Spark worker中 尝试调用这个连接对象保存记录到RDD中,如下:
  1.   dstream.foreachRDD(rdd => {
  2.       val connection = createNewConnection()  // executed at the driver
  3.       rdd.foreach(record => {
  4.           connection.send(record) // executed at the worker
  5.       })
  6.   })
复制代码

这是不正确的,因为这需要先序列化连接对象,然后将它从driver发送到worker中。这样的连接对象在机器之间不能传送。它可能表现为序列化错误(连接对象不可序列化)或者初始化错误(连接对象应该 在worker中初始化)等等。正确的解决办法是在worker中创建连接对象。





  • 然而,这会造成另外一个常见的错误-为每一个记录创建了一个连接对象。例如:
  1.   dstream.foreachRDD(rdd => {
  2.       rdd.foreach(record => {
  3.           val connection = createNewConnection()
  4.           connection.send(record)
  5.           connection.close()
  6.       })
  7.   })
复制代码

通常,创建一个连接对象有资源和时间的开支。因此,为每个记录创建和销毁连接对象会导致非常高的开支,明显的减少系统的整体吞吐量。一个更好的解决办法是利用rdd.foreachPartition方法。 为RDD的partition创建一个连接对象,用这个两件对象发送partition中的所有记录。
  1. dstream.foreachRDD(rdd => {
  2.       rdd.foreachPartition(partitionOfRecords => {
  3.           val connection = createNewConnection()
  4.           partitionOfRecords.foreach(record => connection.send(record))
  5.           connection.close()
  6.       })
  7.   })
复制代码

这就将连接对象的创建开销分摊到了partition的所有记录上了。










  • 最后,可以通过在多个RDD或者批数据间重用连接对象做更进一步的优化。开发者可以保有一个静态的连接对象池,重复使用池中的对象将多批次的RDD推送到外部系统,以进一步节省开支。

  1.   dstream.foreachRDD(rdd => {
  2.       rdd.foreachPartition(partitionOfRecords => {
  3.           // ConnectionPool is a static, lazily initialized pool of connections
  4.           val connection = ConnectionPool.getConnection()
  5.           partitionOfRecords.foreach(record => connection.send(record))
  6.           ConnectionPool.returnConnection(connection)  // return to the pool for future reuse
  7.       })
  8.   })
复制代码

需要注意的是,池中的连接对象应该根据需要延迟创建,并且在空闲一段时间后自动超时。这样就获取了最有效的方式发生数据到外部系统。
其它需要注意的地方:


  • 输出操作通过懒执行的方式操作DStreams,正如RDD action通过懒执行的方式操作RDD。具体地看,RDD actions和DStreams输出操作接收数据的处理。因此,如果你的应用程序没有任何输出操作或者 用于输出操作dstream.foreachRDD(),但是没有任何RDD action操作在dstream.foreachRDD()里面,那么什么也不会执行。系统仅仅会接收输入,然后丢弃它们。
  • 默认情况下,DStreams输出操作是分时执行的,它们按照应用程序的定义顺序按序执行。

相关内容:

Spark中文手册1-编程指南
http://www.aboutyun.com/thread-11413-1-1.html

Spark中文手册2:Spark之一个快速的例子
http://www.aboutyun.com/thread-11484-1-1.html

Spark中文手册3:Spark之基本概念
http://www.aboutyun.com/thread-11502-1-1.html


Spark中文手册5:Spark之基本概念(3)
http://www.aboutyun.com/thread-11535-1-1.html

Spark中文手册6:Spark-sql由入门到精通
http://www.aboutyun.com/thread-11562-1-1.html


Spark中文手册7:Spark-sql由入门到精通【续】
http://www.aboutyun.com/thread-11575-1-1.html


Spark中文手册8:spark GraphX编程指南(1)
http://www.aboutyun.com/thread-11589-1-1.html

Spark中文手册9:spark GraphX编程指南(2)
http://www.aboutyun.com/thread-11601-1-1.html

Spark中文手册10:spark部署:提交应用程序及独立部署模式
http://www.aboutyun.com/thread-11615-1-1.html


Spark中文手册11:Spark 配置指南
http://www.aboutyun.com/thread-10652-1-1.html








本帖被以下淘专辑推荐:

已有(14)人评论

跳转到指定楼层
QQo0oBIQ 发表于 2015-2-4 10:49:07
敢死队撒的发生飞洒
回复

使用道具 举报

小南3707 发表于 2015-2-4 11:58:40
不错~            
回复

使用道具 举报

cochou 发表于 2015-2-4 17:14:05
回复

使用道具 举报

cochou 发表于 2015-2-4 17:14:46
回复

使用道具 举报

cochou 发表于 2015-2-4 17:15:29
回复

使用道具 举报

cochou 发表于 2015-2-4 17:16:16
回复

使用道具 举报

cochou 发表于 2015-2-4 17:27:30
回复

使用道具 举报

YLV 发表于 2015-2-5 23:23:01
回复

使用道具 举报

12下一页
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条