首页 > 代码库 > SPARK 入门笔记
SPARK 入门笔记
1、Spark基于内存进行运算
2、Spark核心是SprintContext,是程序的入口
3、RDDs是提供抽象的数据集,通过RDDS可以方便对分布在各个节点的数据进行计算,而且忽略细节
4、RDDs与Stream API
5、RDDs采用类似延时加载,计算功能
6、RDDs的combineByKey函数是一个较核心的函数:如下
def combineByKey[C]( createCombiner: V => C, mergeValue: (C, V) => C, mergeCombiners: (C, C) => C, partitioner: Partitioner, mapSideCombine: Boolean = true, serializer: Serializer = null)
SPARK 入门笔记
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。