分享

Spark Standalone模式的架构设计详解

本帖最后由 fc013 于 2017-9-2 19:32 编辑


问题导读:


1.RDD具有哪些重要的特性?
2.Spark支持哪些集群模式?
3.在Standalone模式下,核心组件是怎样交互的?







Apache Spark是一个开源的通用集群计算系统,它提供了High-level编程API,支持Scala、Java和Python三种编程语言。Spark内核使用Scala语言编写,通过基于Scala的函数式编程特性,在不同的计算层面进行抽象,代码设计非常优秀。


RDD抽象


RDD(Resilient Distributed Datasets),弹性分布式数据集,它是对分布式数据集的一种内存抽象,通过受限的共享内存方式来提供容错性,同时这种内存模型使得计算比传统的数据流模型要高效。RDD具有5个重要的特性,如下图所示:


201701110501.jpg


上图展示了2个RDD进行JOIN操作,体现了RDD所具备的5个主要特性,如下所示:


1.一组分区

2.计算每一个数据分片的函数

3.RDD上的一组依赖

4.可选,对于键值对RDD,有一个Partitioner(通常是HashPartitioner)

5.可选,一组Preferred location信息(例如,HDFS文件的Block所在location信息)


有了上述特性,能够非常好地通过RDD来表达分布式数据集,并作为构建DAG图的基础:首先抽象一次分布式计算任务的逻辑表示,最终将任务在实际的物理计算环境中进行处理执行。


计算抽象


在描述Spark中的计算抽象,我们首先需要了解如下几个概念:


1.Application


用户编写的Spark程序,完成一个计算任务的处理。它是由一个Driver程序和一组运行于Spark集群上的Executor组成。


2.Job


用户程序中,每次调用Action时,逻辑上会生成一个Job,一个Job包含了多个Stage。


3.Stage


Stage包括两类:ShuffleMapStage和ResultStage,如果用户程序中调用了需要进行Shuffle计算的Operator,如groupByKey等,就会以Shuffle为边界分成ShuffleMapStage和ResultStage。


4.TaskSet


基于Stage可以直接映射为TaskSet,一个TaskSet封装了一次需要运算的、具有相同处理逻辑的Task,这些Task可以并行计算,粗粒度的调度是以TaskSet为单位的。


5.Task


Task是在物理节点上运行的基本单位,Task包含两类:ShuffleMapTask和ResultTask,分别对应于Stage中ShuffleMapStage和ResultStage中的一个执行基本单元。


下面,我们看一下,上面这些基本概念之间的关系,如下图所示:


201701110502.jpg


上图,为了简单,每个Job假设都很简单,并且只需要进行一次Shuffle处理,所以都对应2个Stage。实际应用中,一个Job可能包含若干个Stage,或者是一个相对复杂的Stage DAG。


在Standalone模式下,默认使用的是FIFO这种简单的调度策略,在进行调度的过程中,大概流程如下图所示:


201701110503.jpg


从用户提交Spark程序,最终生成TaskSet,而在调度时,通过TaskSetManager来管理一个TaskSet(包含一组可在物理节点上执行的Task),这里面TaskSet必须要按照顺序执行才能保证计算结果的正确性,因为TaskSet之间是有序依赖的(上溯到ShuffleMapStage和ResultStage),只有一个TaskSet中的所有Task都运行完成后,才能调度下一个TaskSet中的Task去执行。


集群模式


Spark集群在设计的时候,并没有在资源管理的设计上对外封闭,而是充分考虑了未来对接一些更强大的资源管理系统,如YARN、Mesos等,所以Spark架构设计将资源管理单独抽象出一层,通过这种抽象能够构建一种适合企业当前技术栈的插件式资源管理模块,从而为不同的计算场景提供不同的资源分配与调度策略。Spark集群模式架构,如下图所示:


201701110504.jpg


上图中,Spark集群Cluster Manager目前支持如下三种模式:


1.Standalone模式


Standalone模式是Spark内部默认实现的一种集群管理模式,这种模式是通过集群中的Master来统一管理资源,而与Master进行资源请求协商的是Driver内部的StandaloneSchedulerBackend(实际上是其内部的StandaloneAppClient真正与Master通信),后面会详细说明。


2.YARN模式


YARN模式下,可以将资源的管理统一交给YARN集群的ResourceManager去管理,选择这种模式,可以更大限度的适应企业内部已有的技术栈,如果企业内部已经在使用Hadoop技术构建大数据处理平台。


3.Mesos模式


随着Apache Mesos的不断成熟,一些企业已经在尝试使用Mesos构建数据中心的操作系统(DCOS),Spark构建在Mesos之上,能够支持细粒度、粗粒度的资源调度策略(Mesos的优势),也可以更好地适应企业内部已有技术栈。


那么,Spark中是怎么考虑满足这一重要的设计决策的呢?也就是说,如何能够保证Spark非常容易的让第三方资源管理系统轻松地接入进来。我们深入到类设计的层面看一下,如下图类图所示:


201701110505.jpg


可以看出,Task调度直接依赖SchedulerBackend,SchedulerBackend与实际资源管理模块交互实现资源请求。这里面,CoarseGrainedSchedulerBackend是Spark中与资源调度相关的最重要的抽象,它需要抽象出与TaskScheduler通信的逻辑,同时还要能够与各种不同的第三方资源管理系统无缝地交互。实际上,CoarseGrainedSchedulerBackend内部采用了一种ResourceOffer的方式来处理资源请求。


RPC网络通信抽象


Spark RPC层是基于优秀的网络通信框架Netty设计开发的,但是Spark提供了一种很好地抽象方式,将底层的通信细节屏蔽起来,而且也能够基于此来设计满足扩展性,比如,如果有其他不基于Netty的网络通信框架的新的RPC接入需求,可以很好地扩展而不影响上层的设计。RPC层设计,如下图类图所示:


201701110506.jpg


任何两个Endpoint只能通过消息进行通信,可以实现一个RpcEndpoint和一个RpcEndpointRef:想要与RpcEndpoint通信,需要获取到该RpcEndpoint对应的RpcEndpointRef即可,而且管理RpcEndpoint和RpcEndpointRef创建及其通信的逻辑,统一在RpcEnv对象中管理。


启动Standalone集群


Standalone模式下,Spark集群采用了简单的Master-Slave架构模式,Master统一管理所有的Worker,这种模式很常见,我们简单地看下Spark Standalone集群启动的基本流程,如下图所示:


201701110507.jpg


可以看到,Spark集群采用的消息的模式进行通信,也就是EDA架构模式,借助于RPC层的优雅设计,任何两个Endpoint想要通信,发送消息并携带数据即可。上图的流程描述如下所示:


1.Master启动时首先创一个RpcEnv对象,负责管理所有通信逻辑

2.Master通过RpcEnv对象创建一个Endpoint,Master就是一个Endpoint,Worker可以与其进行通信

3.Worker启动时也是创一个RpcEnv对象

4.Worker通过RpcEnv对象创建一个Endpoint

5.Worker通过RpcEnv对,建立到Master的连接,获取到一个RpcEndpointRef对象,通过该对象可以与Master通信

6.Worker向Master注册,注册内容包括主机名、端口、CPU Core数量、内存数量

7.Master接收到Worker的注册,将注册信息维护在内存中的Table中,其中还包含了一个到Worker的RpcEndpointRef对象引用

8.Master回复Worker已经接收到注册,告知Worker已经注册成功

9.此时如果有用户提交Spark程序,Master需要协调启动Driver;而Worker端收到成功注册响应后,开始周期性向Master发送心跳


核心组件


集群处理计算任务的运行时(用户提交了Spark程序),最核心的顶层组件就是Driver和Executor,它们内部管理很多重要的组件来协同完成计算任务,核心组件栈如下图所示:


201701110508.jpg


Driver和Executor都是运行时创建的组件,一旦用户程序运行结束,他们都会释放资源,等待下一个用户程序提交到集群而进行后续调度。上图,我们列出了大多数组件,其中SparkEnv是一个重量级组件,他们内部包含计算过程中需要的主要组件,而且,Driver和Executor共同需要的组件在SparkEnv中也包含了很多。这里,我们不做过多详述,后面交互流程等处会说明大部分组件负责的功能。


核心组件交互流程


在Standalone模式下,Spark中各个组件之间交互还是比较复杂的,但是对于一个通用的分布式计算系统来说,这些都是非常重要而且比较基础的交互。首先,为了理解组件之间的主要交互流程,我们给出一些基本要点:


一个Application会启动一个Driver

一个Driver负责跟踪管理该Application运行过程中所有的资源状态和任务状态

一个Driver会管理一组Executor

一个Executor只执行属于一个Driver的Task


核心组件之间的主要交互流程,如下图所示:


201701110509.jpg


上图中,通过不同颜色或类型的线条,给出了如下6个核心的交互流程,我们会详细说明:


橙色:提交用户Spark程序


用户提交一个Spark程序,主要的流程如下所示:


1.用户spark-submit脚本提交一个Spark程序,会创建一个ClientEndpoint对象,该对象负责与Master通信交互

2.ClientEndpoint向Master发送一个RequestSubmitDriver消息,表示提交用户程序

3.Master收到RequestSubmitDriver消息,向ClientEndpoint回复SubmitDriverResponse,表示用户程序已经完成注册

4.ClientEndpoint向Master发送RequestDriverStatus消息,请求Driver状态

5.如果当前用户程序对应的Driver已经启动,则ClientEndpoint直接退出,完成提交用户程序


紫色:启动Driver进程


当用户提交用户Spark程序后,需要启动Driver来处理用户程序的计算逻辑,完成计算任务,这时Master协调需要启动一个Driver,具体流程如下所示:


1.Maser内存中维护着用户提交计算的任务Application,每次内存结构变更都会触发调度,向Worker发送LaunchDriver请求


2. Worker收到LaunchDriver消息,会启动一个DriverRunner线程去执行LaunchDriver的任务


3.DriverRunner线程在Worker上启动一个新的JVM实例,该JVM实例内运行一个Driver进程,该Driver会创建SparkContext对象


红色:注册Application


Dirver启动以后,它会创建SparkContext对象,初始化计算过程中必需的基本组件,并向Master注册Application,流程描述如下:


1.创建SparkEnv对象,创建并管理一些数基本组件

2.创建TaskScheduler,负责Task调度

3.创建StandaloneSchedulerBackend,负责与ClusterManager进行资源协商

4.创建DriverEndpoint,其它组件可以与Driver进行通信

5.在StandaloneSchedulerBackend内部创建一个StandaloneAppClient,负责处理与Master的通信交互

6.StandaloneAppClient创建一个ClientEndpoint,实际负责与Master通信

7.ClientEndpoint向Master发送RegisterApplication消息,注册Application

8.Master收到RegisterApplication请求后,回复ClientEndpoint一个RegisteredApplication消息,表示已经注册成功


蓝色:启动Executor进程


1.Master向Worker发送LaunchExecutor消息,请求启动Executor;同时Master会向Driver发送ExecutorAdded消息,表示Master已经新增了一个Executor(此时还未启动)

2.Worker收到LaunchExecutor消息,会启动一个ExecutorRunner线程去执行LaunchExecutor的任务

3.Worker向Master发送ExecutorStageChanged消息,通知Executor状态已发生变化

4.Master向Driver发送ExecutorUpdated消息,此时Executor已经启动


粉色:启动Task执行


1.StandaloneSchedulerBackend启动一个DriverEndpoint

2.DriverEndpoint启动后,会周期性地检查Driver维护的Executor的状态,如果有空闲的Executor便会调度任务执行

3.DriverEndpoint向TaskScheduler发送Resource Offer请求

4.如果有可用资源启动Task,则DriverEndpoint向Executor发送LaunchTask请求

5.Executor进程内部的CoarseGrainedExecutorBackend调用内部的Executor线程的launchTask方法启动Task

6.Executor线程内部维护一个线程池,创建一个TaskRunner线程并提交到线程池执行


绿色:Task运行完成


1.Executor进程内部的Executor线程通知CoarseGrainedExecutorBackend,Task运行完成

2.CoarseGrainedExecutorBackend向DriverEndpoint发送StatusUpdated消息,通知Driver运行的Task状态发生变更

3.StandaloneSchedulerBackend调用TaskScheduler的updateStatus方法更新Task状态

4.StandaloneSchedulerBackend继续调用TaskScheduler的resourceOffers方法,调度其他任务运行


Block管理


Block管理,主要是为Spark提供的Broadcast机制提供服务支撑的。Spark中内置采用TorrentBroadcast实现,该Broadcast变量对应的数据(Task数据)或数据集(如RDD),默认会被切分成若干4M大小的Block,Task运行过程中读取到该Broadcast变量,会以4M为单位的Block为拉取数据的最小单位,最后将所有的Block合并成Broadcast变量对应的完整数据或数据集。将数据切分成4M大小的Block,Task从多个Executor拉取Block,可以非常好地均衡网络传输负载,提高整个计算集群的稳定性。


通常,用户程序在编写过程中,会对某个变量进行Broadcast,该变量称为Broadcast变量。在实际物理节点的Executor上执行Task时,需要读取Broadcast变量对应的数据集,那么此时会根据需要拉取DAG执行流上游已经生成的数据集。采用Broadcast机制,可以有效地降低数据在计算集群环境中传输的开销。具体地,如果一个用户对应的程序中的Broadcast变量,对应着一个数据集,它在计算过程中需要拉取对应的数据,如果在同一个物理节点上运行着多个Task,多个Task都需要该数据,有了Broadcast机制,只需要拉取一份存储在本地物理机磁盘即可,供多个Task计算共享。


另外,用户程序在进行调度过程中,会根据调度策略将Task计算逻辑数据(代码)移动到对应的Worker节点上,最优情况是对本地数据进行处理,那么代码(序列化格式)也需要在网络上传输,也是通过Broadcast机制进行传输,不过这种方式是首先将代码序列化到Driver所在Worker节点,后续如果Task在其他Worker中执行,需要读取对应代码的Broadcast变量,首先就是从Driver上拉取代码数据,接着其他晚一些被调度的Task可能直接从其他Worker上的Executor中拉取代码数据。


我们通过以Broadcast变量taskBinary为例,说明Block是如何管理的,如下图所示:


201701110510.jpg


上图中,Driver负责管理所有的Broadcast变量对应的数据所在的Executor,即一个Executor维护一个Block列表。在Executor中运行一个Task时,执行到对应的Broadcast变量taskBinary,如果本地没有对应的数据,则会向Driver请求获取Broadcast变量对应的数据,包括一个或多个Block所在的Executor列表,然后该Executor根据Driver返回的Executor列表,直接通过底层的BlockTransferService组件向对应Executor请求拉取Block。Executor拉取到的Block会缓存到本地,同时向Driver报告该Executor上存在的Block信息,以供其他Executor执行Task时获取Broadcast变量对应的数据。




来源:uml
作者:时延军

已有(2)人评论

跳转到指定楼层
fengfengda 发表于 2017-9-15 17:22:02
spark和flume整合通过拉模式得到的结果是
17/09/15 16:55:58 INFO scheduler.TaskSchedulerImpl: Removed TaskSet 1.0, whose tasks have all completed, from pool
17/09/15 16:55:58 INFO scheduler.DAGScheduler: ResultStage 1 (start at FlumeLogPull.scala:47) finished in 1.139 s
17/09/15 16:55:58 INFO scheduler.DAGScheduler: Job 0 finished: start at FlumeLogPull.scala:47, took 21.803352 s
17/09/15 16:55:58 INFO scheduler.ReceiverTracker: Starting 1 receivers
17/09/15 16:55:58 INFO scheduler.ReceiverTracker: ReceiverTracker started
17/09/15 16:55:58 INFO flume.FlumePollingInputDStream: Slide time = 30000 ms
17/09/15 16:55:58 INFO flume.FlumePollingInputDStream: Storage level = Serialized 1x Replicated
17/09/15 16:55:58 INFO flume.FlumePollingInputDStream: Checkpoint interval = null
17/09/15 16:55:58 INFO flume.FlumePollingInputDStream: Remember interval = 30000 ms
17/09/15 16:55:58 INFO flume.FlumePollingInputDStream: Initialized and validated org.apache.spark.streaming.flume.FlumePollingInputDStream@3c6c8b93
17/09/15 16:55:58 INFO dstream.MappedDStream: Slide time = 30000 ms
17/09/15 16:55:58 INFO dstream.MappedDStream: Storage level = Serialized 1x Replicated
17/09/15 16:55:58 INFO dstream.MappedDStream: Checkpoint interval = null
17/09/15 16:55:58 INFO dstream.MappedDStream: Remember interval = 30000 ms
17/09/15 16:55:58 INFO dstream.MappedDStream: Initialized and validated org.apache.spark.streaming.dstream.MappedDStream@57a527ca
17/09/15 16:55:58 INFO dstream.TransformedDStream: Slide time = 30000 ms
17/09/15 16:55:58 INFO dstream.TransformedDStream: Storage level = Serialized 1x Replicated
17/09/15 16:55:58 INFO dstream.TransformedDStream: Checkpoint interval = null
17/09/15 16:55:58 INFO dstream.TransformedDStream: Remember interval = 30000 ms
17/09/15 16:55:58 INFO dstream.TransformedDStream: Initialized and validated org.apache.spark.streaming.dstream.TransformedDStream@556e827b
17/09/15 16:55:58 INFO dstream.ShuffledDStream: Slide time = 30000 ms
17/09/15 16:55:58 INFO dstream.ShuffledDStream: Storage level = Serialized 1x Replicated
17/09/15 16:55:58 INFO dstream.ShuffledDStream: Checkpoint interval = null
17/09/15 16:55:58 INFO dstream.ShuffledDStream: Remember interval = 30000 ms
17/09/15 16:55:58 INFO dstream.ShuffledDStream: Initialized and validated org.apache.spark.streaming.dstream.ShuffledDStream@288946aa
17/09/15 16:55:58 INFO dstream.MappedDStream: Slide time = 30000 ms
17/09/15 16:55:58 INFO dstream.MappedDStream: Storage level = Serialized 1x Replicated
17/09/15 16:55:58 INFO dstream.MappedDStream: Checkpoint interval = null
17/09/15 16:55:58 INFO dstream.MappedDStream: Remember interval = 30000 ms
17/09/15 16:55:58 INFO dstream.MappedDStream: Initialized and validated org.apache.spark.streaming.dstream.MappedDStream@7061703b
17/09/15 16:55:58 INFO dstream.MappedDStream: Slide time = 30000 ms
17/09/15 16:55:58 INFO dstream.MappedDStream: Storage level = Serialized 1x Replicated
17/09/15 16:55:58 INFO dstream.MappedDStream: Checkpoint interval = null
17/09/15 16:55:58 INFO dstream.MappedDStream: Remember interval = 30000 ms
17/09/15 16:55:58 INFO dstream.MappedDStream: Initialized and validated org.apache.spark.streaming.dstream.MappedDStream@e84928a
17/09/15 16:55:58 INFO dstream.ForEachDStream: Slide time = 30000 ms
17/09/15 16:55:58 INFO dstream.ForEachDStream: Storage level = Serialized 1x Replicated
17/09/15 16:55:58 INFO dstream.ForEachDStream: Checkpoint interval = null
17/09/15 16:55:58 INFO dstream.ForEachDStream: Remember interval = 30000 ms
17/09/15 16:55:58 INFO dstream.ForEachDStream: Initialized and validated org.apache.spark.streaming.dstream.ForEachDStream@2f58b47b
17/09/15 16:55:59 INFO scheduler.DAGScheduler: Got job 1 (start at FlumeLogPull.scala:47) with 1 output partitions
17/09/15 16:55:59 INFO scheduler.DAGScheduler: Final stage: ResultStage 2 (start at FlumeLogPull.scala:47)
17/09/15 16:55:59 INFO scheduler.DAGScheduler: Parents of final stage: List()
17/09/15 16:55:59 INFO scheduler.DAGScheduler: Missing parents: List()
17/09/15 16:55:59 INFO scheduler.DAGScheduler: Submitting ResultStage 2 (Receiver 0 ParallelCollectionRDD[3] at makeRDD at ReceiverTracker.scala:610), which has no missing parents
17/09/15 16:55:59 INFO scheduler.ReceiverTracker: Receiver 0 started
17/09/15 16:55:59 INFO memory.MemoryStore: Block broadcast_2 stored as values in memory (estimated size 70.6 KB, free 413.8 MB)
17/09/15 16:55:59 INFO memory.MemoryStore: Block broadcast_2_piece0 stored as bytes in memory (estimated size 25.1 KB, free 413.8 MB)
17/09/15 16:55:59 INFO storage.BlockManagerInfo: Added broadcast_2_piece0 in memory on 172.28.41.193:34906 (size: 25.1 KB, free: 413.9 MB)
17/09/15 16:55:59 INFO spark.SparkContext: Created broadcast 2 from broadcast at DAGScheduler.scala:1012
17/09/15 16:55:59 INFO scheduler.DAGScheduler: Submitting 1 missing tasks from ResultStage 2 (Receiver 0 ParallelCollectionRDD[3] at makeRDD at ReceiverTracker.scala:610)
17/09/15 16:55:59 INFO scheduler.TaskSchedulerImpl: Adding task set 2.0 with 1 tasks
17/09/15 16:55:59 INFO util.RecurringTimer: Started timer for JobGenerator at time 1505465760000
17/09/15 16:55:59 INFO scheduler.JobGenerator: Started JobGenerator at 1505465760000 ms
17/09/15 16:55:59 INFO scheduler.JobScheduler: Started JobScheduler
17/09/15 16:56:00 INFO handler.ContextHandler: Started o.s.j.s.ServletContextHandler@534e58b6{/streaming,null,AVAILABLE}
17/09/15 16:56:00 INFO handler.ContextHandler: Started o.s.j.s.ServletContextHandler@1b495d4{/streaming/json,null,AVAILABLE}
17/09/15 16:56:00 INFO handler.ContextHandler: Started o.s.j.s.ServletContextHandler@12fe1f28{/streaming/batch,null,AVAILABLE}
17/09/15 16:56:00 INFO handler.ContextHandler: Started o.s.j.s.ServletContextHandler@26fb4d06{/streaming/batch/json,null,AVAILABLE}
17/09/15 16:56:00 INFO handler.ContextHandler: Started o.s.j.s.ServletContextHandler@2d38edfd{/static/streaming,null,AVAILABLE}
17/09/15 16:56:00 INFO streaming.StreamingContext: StreamingContext started
17/09/15 16:56:00 INFO scheduler.TaskSetManager: Starting task 0.0 in stage 2.0 (TID 70, 172.28.41.196, partition 0, PROCESS_LOCAL, 7271 bytes)
17/09/15 16:56:00 INFO cluster.CoarseGrainedSchedulerBackend$DriverEndpoint: Launching task 70 on executor id: 0 hostname: 172.28.41.196.
17/09/15 16:56:00 INFO storage.BlockManagerInfo: Added broadcast_2_piece0 in memory on 172.28.41.196:48603 (size: 25.1 KB, free: 413.9 MB)
17/09/15 16:56:01 INFO scheduler.ReceiverTracker: Registered receiver for stream 0 from 172.28.41.196:33071
17/09/15 16:56:01 INFO scheduler.JobScheduler: Added jobs for time 1505465760000 ms
17/09/15 16:56:01 INFO scheduler.JobScheduler: Starting job streaming job 1505465760000 ms.0 from job set of time 1505465760000 ms
17/09/15 16:56:01 INFO spark.SparkContext: Starting job: print at FlumeLogPull.scala:43
17/09/15 16:56:01 INFO scheduler.DAGScheduler: Registering RDD 7 (union at DStream.scala:605)
17/09/15 16:56:01 INFO scheduler.DAGScheduler: Got job 2 (print at FlumeLogPull.scala:43) with 1 output partitions
17/09/15 16:56:01 INFO scheduler.DAGScheduler: Final stage: ResultStage 4 (print at FlumeLogPull.scala:43)
17/09/15 16:56:01 INFO scheduler.DAGScheduler: Parents of final stage: List(ShuffleMapStage 3)
17/09/15 16:56:01 INFO scheduler.DAGScheduler: Missing parents: List(ShuffleMapStage 3)
17/09/15 16:56:01 INFO scheduler.DAGScheduler: Submitting ShuffleMapStage 3 (UnionRDD[7] at union at DStream.scala:605), which has no missing parents
17/09/15 16:56:01 INFO memory.MemoryStore: Block broadcast_3 stored as values in memory (estimated size 3.3 KB, free 413.8 MB)
17/09/15 16:56:01 INFO storage.BlockManagerInfo: Removed broadcast_1_piece0 on 172.28.41.193:34906 in memory (size: 1969.0 B, free: 413.9 MB)
17/09/15 16:56:01 INFO memory.MemoryStore: Block broadcast_3_piece0 stored as bytes in memory (estimated size 2.0 KB, free 413.8 MB)
17/09/15 16:56:01 INFO storage.BlockManagerInfo: Added broadcast_3_piece0 in memory on 172.28.41.193:34906 (size: 2.0 KB, free: 413.9 MB)
17/09/15 16:56:01 INFO spark.SparkContext: Created broadcast 3 from broadcast at DAGScheduler.scala:1012
17/09/15 16:56:01 INFO scheduler.DAGScheduler: Submitting 1 missing tasks from ShuffleMapStage 3 (UnionRDD[7] at union at DStream.scala:605)
17/09/15 16:56:01 INFO scheduler.TaskSchedulerImpl: Adding task set 3.0 with 1 tasks
17/09/15 16:56:02 INFO storage.BlockManagerInfo: Removed broadcast_1_piece0 on 172.28.41.196:48603 in memory (size: 1969.0 B, free: 413.9 MB)
17/09/15 16:56:30 INFO scheduler.JobScheduler: Added jobs for time 1505465790000 ms
17/09/15 16:57:00 INFO scheduler.JobScheduler: Added jobs for time 1505465820000 ms
17/09/15 16:57:30 INFO scheduler.JobScheduler: Added jobs for time 1505465850000 ms
没有输出对应的输出语句是什么原因
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条