首页 > 代码库 > Spark on Yarn部署
Spark on Yarn部署
环境:Linux, 8G 内存,60G 硬盘,Hadoop 2.2.0,Spark 1.0.0, Scala 2.10.3
1. 安装Hadoop Yarn 集群
http://blog.csdn.net/zlcd1988/article/details/36008681
这篇Blog很详细的介绍了如何部署Hadoop Yarn 集群。
2. 安装Scala
http://www.scala-sbt.org/download.html
下载 scala-2.10.3.tgz
$ tar -zxvf scala-2.10.3.tgz$ mv scala-2.10.3 /usr/scala
3. 安装Spark
$ wget http://d3kbcqa49mib13.cloudfront.net/spark-1.0.0-bin-hadoop2.tgz$ tar -zvxf spark-1.0.0-bin-hadoop2.tgz$ mv spark-1.0.0-bin-hadoop2 /usr/spark
4. 配置环境变量
在~/.bash_profile 添加环境变量
export SPARK_HOME=/usr/spark
export SCALA_HOME=/usr/scala
export YARN_HOME=$HADOOP_HOME
export PATH=$PATH:$SCALA_HOME/bin:$SPARK_HOME/bin
export SPARK_JAR=$SPARK_HOME/lib/spark-assembly-1.0.0-hadoop2.2.0.jar
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
运行 source .bash_profile 使环境变量立即生效。
5. 编辑 $SPARK_HOME/conf/spark-env.sh 末尾添加:
export SPARK_HOME=/usr/spark
export SPARK_JAR=/usr/spark/lib/spark-assembly-1.0.0-hadoop2.2.0.jar
6. 测试Spark是否能够在Yarn上运行
$ spark-class org.apache.spark.deploy.yarn.Client --jar /usr/spark/lib/spark-examples-1.0.0-hadoop2.2.0.jar --class org.apache.spark.examples.JavaSparkPi --args yarn-standalone --num-workers 1 --master-memory 1G --worker-memory 1G --worker-cores 1
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。