首页 > 代码库 > Spark添加/更改集群节点需要修改的配置文件
Spark添加/更改集群节点需要修改的配置文件
笔记:在配置好了spark后,如果需要添加/删除一个结点需要修改如下配置文件
cd $HADOOP/etc/hadoop 进入hadoop配置文件夹下
修改 slaves,将对应的节点添加/删除
修改hdfs-site.xml , 修改hdfs副本的数量。
cd $SPARK_HOME/conf 进入spark配置文件夹下
修改slaves,将对应的节点添加/删除
修改spark-env.sh ,将SPARK_MASTER_IP=192.168.1.*** 这里的IP为主节点的IP。
Spark添加/更改集群节点需要修改的配置文件
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。