首页 > 代码库 > Spark运行原理及RDD解密
Spark运行原理及RDD解密
Spark是分布式内存计算框架,而不是分布式内容存储框架,搭配tachyon分布式内存文件系统,会更加有效果。
在文件模式下,spark比hadoop快10倍,在内存计算模式下,快100倍!
下面是一些
1 spark是分布式 基于内存 特别适合于迭代计算的计算框架
2 mapReduce就两个阶段map和reduce,而spark是不断地迭代计算,更加灵活更加强大,容易构造复杂算法。
3 spark不能取代hive,hive做数据仓库存储,spark sql只是取代hive的计算引擎,成为分析平台,hadoop作为存储平台
4 spark中间数据可以在内存也可以在磁盘
5 partition是一个数据集合
6 注意:初学者执行多个步骤要注意分步检验,不然不知哪里错了
7 var data = http://www.mamicode.com/sc.textFile("/user") 不必写hdfs:// ,根据上下文判断
8 读文件得到HadoopRDD,去掉文件中索引,得到MapPartitionsRDD,这样一系列分片的数据分布在 不同的机器。
9 移动计算而不是移动数据
移动计算表示分布到各个机器上,分别计算自身负责的那部分数据,而不是把数据从各个机器上移动来进行计算。
计算完后进行数据汇总。
Spark运行原理及RDD解密
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。