首页 > 代码库 > Spark 入门学习
Spark 入门学习
用到的软件:Hadoop-2.4.0、scala-2.10.4、spark-1.1.0
一、预备工作
配好ssh
二、配置工作
首先配置Hadoop 这个可以参考官方网站电接点配置http://hadoop.apache.org/docs/r2.5.1/hadoop-project-dist/hadoop-common/SingleCluster.html
1、Hadoop2的配置文件在etc/hadoop目录下,需要修改的文件有core-site.xml、hadoop-env.sh、hdfs-site.xml、slaves
core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value>
</configuration>
Spark 入门学习
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。