首页 > 代码库 > 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(4)
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(4)
7,在SparkWorker1和SparkWorker2上完毕和SparkMaster相同的Hadoop 2.2.0操作,建议使用SCP命令把SparkMaster上安装和配置的Hadoop的各项内容复制到SparkWorker1和SparkWorker2上;
8,启动并验证Hadoop分布式集群
第一步:格式化hdfs文件系统:
第二步:进入sbin中启动hdfs,运行例如以下命令:
启动步骤例如以下:
此时我们发如今SparkMaster上启动了NameNode和SecondaryNameNode;
在SparkWorker1和SparkWorker2上均启动了DataNode:
此时訪问http://SparkMaster:50070 登录Web控制能够查看HDFS集群的状况:
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(4)
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。