首页 > 代码库 > 论文摘抄 - FlumeJava

论文摘抄 - FlumeJava

本摘抄不保证论文完整性和理解准确性 敲打


原始的MapReduce,分Map,Shuffle,Reduce。Map里包括shards。Shuffle理解为groupByKey的事情。Reduce里包括Combiner,可以定义Sharder来控制key怎么和Reducer worker对应起来。


核心抽象和基本原语

PCollection<T>是一个不可变的bag,可以是有序的(Sequence),也可以是无序的(Collection)。PCollection可以来自于内存里的Java PCollection对象,也可以读取自文件。

 

PTable<K, V>,可以看成PCollection<Pair<K, V>>,不可变无序multi-map。

 

第一个原语是parallelDo(),把PCollection<T>变成新的PCollection<S>,处理方式定义在DoFn<T, S>里。emitFn是call-back,传给用户的process(…),使用emitFn.emit(outElem)发射出去。parallelDo()可以在map或reduce中使用,DoFn不应该使用闭包外全局的变量,(inline function)纯操作自己的inputs。

 

第二个原语是groupByKey(),把PTable<K, V>转变成PTable<K,Collection<V>>,

 

第三个原语是combineValues(),接收input为PTable<K,Collection<V>>和一个V的符合结合律的方法,返回PTable<K, V>。

 

第四个原语是flatten(),接收一个PCollection<T>的list,返回一个PCollection<T>


衍生原语(Derived Operations)

count(),接收PCollection<T>,返回PTable<T, Integer>

实现方式为parallelDo(),groupByKey()和combineValues()

 

join(),接收PTable<K, V1>,PTable<K, V2>,返回PTable<K,Tuple2<Collection<V1>, Collection<V2>>

实现方式为,第一步,使用parallelDo()把每个input PTable<K, Vi>变成通用的PTable<K, TaggedUnion2<V1,V2>>;第二步使用flattern来combine tables;第三步,使用groupByKey()作用于被扁平过了tables,产生PTable<K,Collection<TaggedUnion2<V1, V2>>>

 

top(),接收比较函数和N,

实现方式为parallelDo(),groupByKey()和combineValues()


延迟分析(Deffered Evaluation)

PCollection对象有两种状态,defferred或materialized。

FlumeJava.run()真正触发execution plan的物化/执行。


PObjects

PObject<T>用于存储Java对象,物化过了之后可以使用getValue()方法获得PObject的值。有点像Future。

 

operate()方法


优化器

parallelDoFusion(融合)

Producer-Consumer and Sibling Fusion,如下图


大致是说,ABCD这几种由同一份input产生的parallelDo,可以融合起来在一个parallelDo,即A+B+C+D,里处理。一些中间结果也可以不要。

 

MapShuffleCombineReduce(MSCR) Operation

FlumeJava优化器的核心在于把ParallelDo,GroupByKey,CombineValues和Flattern的组合转换成一个个单个的MapReduce。

MSCR是一个中间层的操作,有M个input channels(每个可以进行map操作),有R个Reduce channels(每个可以进行shuffle,或combine,或reduce操作)。单个input channal m,接收PCollection<Tm>作为输入,执行R路output输出的ParallelDo “map”操作,产生R个PTable<Kr, Vs> outputs。每个output channel r flatterns它的M个inputs,然后

a)  进行一次GroupByKey的“shuffle”,或CombineValues的“combine”,或Or-output的ParallelDo “reduce”,然后把结果写出到Or-output PCollections

b)  把inputs直接写出为outputs

前者这样的output channel称为”Grouping” channel,后者称为”pass-through” channel。”pass-through” channel允许map的output成为一个MSCR操作的输出。



每个MSCR操作可以用一个MapReduce完成。它让MapReduce更加通用,体现在:

?  允许多个reducers和combiners;

?  允许每个reducer产生多个outputs;

?  消除了每个reducer必须以相同的key为input来产出output的约束;

?  允许pass-through形式的outputs。

所以MSCR是优化器里很好的一个中间操作目标。


MSCR Fusion

MSCR操作产生于一些相关的GroupByKey操作集合,相关的GroupByKey操作是指产生于相同的input(如Flattern操作),或被同一个parallelDo操作制造出来的input。

这部分比较晦涩难懂啊,但是是理解核心



全局优化策略

优化要达到的效果是最后的执行计划里包含尽可能少的又高效的MSCR操作。

1.  Sink Flatterns。把扁平操作下沉,如h(f(a)+f(b))=> h(f(a))+h(f(b)),即分配律,然后又能和parallelDo的融合特性结合起来,如(hof)(a)+(hog)(b)

2.  Lift CombineValues。如果CombineValues紧跟着GroupByKey操作。

3.  Insert fusion blocks。如果俩GroupByKey操作是由生产者-消费者的ParallelDo chain连起来的,ParallelDo要在GroupByKey里做上调和下移。

4.  Fuse ParallelDos。

5.  Fuse MSCRs。


针对这几个策略的实施,后面举了个例子并且描绘了具体的执行图,非常帮助理解


优化的不足和未来工作

优化器没有分析用户写的方法,比如估算input和output数据量大小。

也没有修改用户的代码来做优化。

需要做一些分析避免运算的重复,及去除不必要或不合理的groupByKey。


Executor

优化完了之后是执行。目前支持的是batch的模式提交作业。

在执行方面,FlumeJava会做方便用户开发、debug,自动创建删除文件,自动识别数据量大小调整执行并行度和改变执行模式(remote)等等事情。


全文完 :)