首页 > 代码库 > hadoop完全分布式模式的安装和配置
hadoop完全分布式模式的安装和配置
本文是将三台电脑用路由器搭建本地局域网,系统为centos6.5,已经实验验证,搭建成功。
一、设置静态IP&修改主机名&关闭防火墙(all-root)(对三台电脑都需要进行操作)
0.将三台电脑安装centos6.5系统
1.设置静态ip(便于机器之间的通信,防止路由器电脑重启后,ip变化,导致不能通信)
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0 #描述网卡对应的设备别名,例如ifcfg-eth0的文件中它为eth0
BOOTPROTO=static #设置网卡获得ip地址的方式,可能的选项为static,dhcp或bootp,分别对应静态指定的 ip地址,通过dhcp协议获得的ip地址,通过bootp协议获得的ip地址
BROADCAST=192.168.0.255 #对应的子网广播地址
HWADDR=00:07:E9:05:E8:B4 #对应的网卡物理地址
在文件最后面添加一下代码
IPADDR=192.168.80.100
NETMASK=255.255.255.0
NETWORK=192.168.0.0
里面的IPADDR地址设置你想要的,我这里是192.168.80.100。
设置好后,需要让IP地址生效,运行下面命令:
service network restart Shutting down interface
然后运行ifconfig就可以看到静态ip是否生效。
2.修改主机名(每台电脑都要修改,建议使用hadoop100,hadoop101,hadoop102,对应于ip地址最后面三位数)
vi /etc/sysconfig/network
hostname=hadoop100
重启一下网络service network restart
验证reboot -h now 立刻重启 然后hostname
3.关闭防火墙
关闭已经启动的防火墙: service iptables stop (只能关闭当前)
验证:service iptables status
Firewall is not running
关闭防火墙开机自动启动功能:
(1). 先查看 查看: chkconfig --list |grep iptables
iptables 0:off 1:off 2:on 3:on 4:on 5:on 6:off
(2). 关闭 chkconfig iptables off
验证:chkconfig --list |grep iptables
4.建立hadoop运行帐号
最好不要使用root操作hadoop,root是超级管理员权限,不推荐各个机器之间使用root访问,
二、配置hosts文件(只需要对主机192.168.80.100(hadoop100)进行操作,然后通过scp命令将这些配置分发给其他电脑即可)
操作192.168.80.100机器
192.168.80.100 hadoop100
192.168.80.101 hadoop101
192.168.80.102 hadoop102
三、为hadoop账户配置ssh免密码连入(只需对hadoop100操作)
操作hadoop100机器
① ssh-keygen -t rsa会在~/.ssh/文件夹下生成id_rsa id_rsa.pub两个文件
[root@hadoop100 local]# cd /usr/local
[root@hadoop100 local]# ./jdk-6u30-linux-x64.bin解压jdk后,生成jdk1.6.0_30文件夹
export PATH=.:$JAVA_HOME/bin:$PATH
chgrp -R hadoop /usr/local/hadoop/
修改为
export JAVA_HOME=/usr/local/jdk1.6.0_30
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop100:9000</value>
<description>change your own hostname</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
</configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop100:9001</value>
<description>change your own hostname</description>
</property>
</configuration>
scp -r /etc/hosts root@hadoop102:/etc/
scp -r /usr/local/jdk1.6.0_30 root@hadoop102:/usr/local/
scp -r /etc/profile root@hadoop102:/etc/
分别验证: java -version
ping hadoop101
ping hadoop100
scp -r /usr/local/hadoop/ root@hadoop102:/usr/local/hadoop/
执行命令 hadoop namenode -format
32387 Jps
32283 JobTracker
32198 SecondaryNameNode
32021 NameNode
hadoop101和hadoop102上有
30770 TaskTracker
30866 Jps
30666 DataNode
说明运行成功,。,这时你可以运行个wordcount这个小例子体验一下、。