首页 > 代码库 > Spark RDD
Spark RDD
梗概:
RDD 其实就是分布式的元素集合。
在Spark中,对数据的所有操作不外乎创建RDD、转化已有RDD 以及 调用RDD 操作进行求值。而在这一切背后,Spark会自动将RDD中的数据分发到集群上,并将操作并行化执行。
RDD就是一个不可变的分布式对象集合。每个RDD都被分为多个分区,这些分区运行在集群中的不同节点上。
RDD的创建:a. 读取一个外部数据集;b. 在驱动器程序里分发驱动器程序中的对象集合(比如 list 和 set) ;
RDD支持两种类型的操作:转化操作(transformation) 和 行动操作(action);
a. 转化操作会由一个RDD 生成一个 新的RDD;如filter():
//调用转化操作 filter() >>> pythonLines = lines.filter(lambda line: "Python" in line)
b. 行动操作会对RDD计算出一个结果;并把结果返回到驱动器程序中,或把结果存储到外部存储系统(如 HDFS)中。
惰性计算:新产生的RDD在转化操作中并没有真正计算,只有在行动操作中使用到了才去计算,并在转化到操作的整个操作链中优化计算。如:
//调用转化操作 filter() >>> pythonLines = lines.filter(lambda line: "Python" in line) //调用 first() 行动操作 >>> pythonLines.first() //在行动操作 first() 中,Spark 只需要扫描文件直到找到第一个匹配的行为止,而不需要读取整个文件
默认情况下,Spark 的RDD会在你每次对它们进行行动操作时重新计算。
Spark RDD
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。