首页 > 代码库 > Spark源码学习1.1——DAGScheduler.scala
Spark源码学习1.1——DAGScheduler.scala
本文以Spark1.1.0版本为基础。
经过前一段时间的学习,基本上能够对Spark的工作流程有一个了解,但是具体的细节还是需要阅读源码,而且后续的科研过程中也肯定要修改源码的,所以最近开始Spark的源码的学习。首先以重要文件为基础分别分析,然后再整体的分析。
(一)DAGScheduler.scala文件的主要功能
DAGScheduler是划分Job为stage的调度,它是在作业所需要的数据已经被分为RDD之后执行的。DAGScheduler将Job划分为DAG图,以stage为图的结点,明确了各个stage之间的依赖关系,然后依次提交stage和Job。
(二)DAGScheduler.scala中的类和方法
1、initializeEventProcessActor()
该方法初始化eventProcessActor,也就是说,它可以阻塞线程直到supervisor启动,而在这整个过程中eventProcessActor都不会空闲。
2、executorHeartbeatReceived(execId,taskMetrics,blockManagerId)
该方法有三个参数,是用来接收心跳信息的。心跳信息是各个节点向master提供当前状态的,通知master当前节点是正在运行任务的,而运行任务的单位正是executor。
关于executor的方法还有:executorLost()处理executor执行失败,executorAdd()处理executor添加和tasksetFailed()设置任务失败。
3、getcacheLocs(RDD[_])
该方法查询本地缓存,检查本地存在哪些RDD,RDD的本地性是关系到stage分配的重要因素,在后文的函数中会实现。
关于Cache的方法还有:clearcacheLocs()清除缓存。
4、getShuffleMapStage(ShuffleDependence[_,_,_],JobId)
该方法是stage建立的关键,它明确stage的建立方法是以shuffle为边界的,如果出现wide依赖关系,那么就是shuffle的边界,就可以建立新的stage了,建立stage的方法为newOrUsedStage。
5、newStage(RDD[_],numTask,shuffleDependence,JobId,callsite)和newOrUsedStage(RDD[_],numTask,shuffleDependence,JobId,callsite)
这两个方法以同样的参数建立Stage,不同的是前者是建立无依赖关系的stage,而后者是由父系stage建立的有一定依赖关系的stage。
6、getParentStage(RDD[_],JobId)
该方法根据参数中的RDD数组(也就是一个stage中的所有RDD),查询当前RDD所属的Stage。
7、registerShuffleDependencies(shuffleDependencies[_,_,_],JobId)
该方法扫描依赖关系,利用getAncestorShuffleDependencies返回的RDD关系栈将依赖关系加入到Stage中。
8、getAncestorShuffleDependencies(RDD[_])
该方法建立RDD之间的依赖关系。
9、getMissingParentStages(stage)
该方法在getShuffleMapStage的基础上确定Stage的父系Stage,利用的也是RDD之间的依赖关系。
10、updataJobIdStageIdMaps(JobId,stage)
该方法用来更新Stage中的StageId和JobId。
11、cleanupStateForJobAndIndependentStages(Job)
该方法清除一个活动的Job的所有状态,以及其所属的不再需要的stage的状态。
12、submit[T,U](RDD[T],func,partitions,callsite,allowlocal,resulthandler,properties)
向任务调度器提交一个Job,并同时差生一个Jobwaiter,这个Jobwaiter可以用来保证Job执行时其他Job是阻塞的,也可以用来取消Job。
13、runJob[T,U](RDD[T],func,partitions,callsite,allowlocal,resulthandler,properties)
这个方法其实只是对Job提交之后的一个返回信息的处理,如果submitJob方法没有返回异常,就表示执行正确了,否则报错并加入日志。
14、runApproxiateJob[T,U,R](RDD[T],func,partitions,evaluator,callsite,timeout,properties)
该方法执行当前Job的下一个Job。
15、取消任务或者Stage的相关方法:doCancelAllJobs(),cancelStage(stageId)
16、重新提交失败的或者等待的Stage的方法:resubmitFailedStages(),submitWaitingStages()
17、runLocally(Job)和runLocallyWithinThread(job)
前者建立新的线程,启动本地执行;后者在线程中实际执行Job。
18、handle***()
这一些以handle开头的方法特点是进行了多次判定。handleJobSubmitted()方法对已经提交的Job进行操作,找到最后一个的Stage,检查Job执行的本地性等,然后将Job中的最后一个Stage提交,提交方法为submitStage()。submitStage()会根据最后一个Stage依次提交父系Stage,这其中需要考虑到丢失的task。handleTaskCompletion()方法在于处理Task执行后的各种状况,失败、阻塞或者失去联系,重新提交Task。详细的代码涉及诸多方法和类。
19、getPreferredLocsInternal(RDD,partition,visited)
根据Cache和输入RDD的位置和依赖关系递归查询最适合的位置。
Spark源码学习1.1——DAGScheduler.scala