首页 > 代码库 > hadoop_hive_zookeeper_kafka_spark平台搭建
hadoop_hive_zookeeper_kafka_spark平台搭建
1. 搭建linux集群
一般在学习测试阶段最小的节点数是3个节点,因此在虚拟机中安装3个节点。我使用的虚拟机环境是VMware10,linux系统是64位 Centos 6.5 minimal版本。对于安装linux系统的过程就不在赘述了,网上有很多。安装好linux后,需要做好3件事:
- 修改主机名: 在/etc/sysconfig/network文件中修改
- 配置静态IP:
- 配置主机名和IP地址的映射关系
- 关闭防火墙
- 关闭Selinux
安装好一个节点后,可以通过完全克隆的方式生成其他两个节点,在这里着重叙述下新克隆出的节点如何修改IP地址的方法。
最后设置3个节点之间的无密钥登录,即ssh无密钥登录
2. 安装hadoop集群
hadoop_hive_zookeeper_kafka_spark平台搭建
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。