首页 > 代码库 > Hadoop(3)-HDFS

Hadoop(3)-HDFS

这里使用两台EC2服务器,每台EC2额外挂载一块30G的EBS来部署HDFS,HDFS将有一个namenode,两个datanode,副本数量为2。一台服务器作为master和slave1,另一台作为slave2,EBS作为datanode存储数据的位置。

Hadoop使用2.7.2,解压到/home/ec2-user/download/hadoop-2.7.2,并创建一个软连接到/home/ec2-user/hadoop。

配置Master和Slave1

1.设定IP解析

为了方便以后调整服务器IP,或将节点分配到其他服务器,这里添加主机和IP对应:

sudo vi /etc/hosts

10.0.3.51   hadoop.master
10.0.3.51   hadoop.slave1
10.0.3.170  hadoop.slave2

2.设置无密码登录

按入门示例中的方法设置无密码登录。

3.挂载EBS

使用以下命令挂载EBS到/mnt/ebs,作为datanode存储数据的硬盘。

sudo mkfs.ext4 /dev/xvdb
sudo mkdir /mnt/ebs
sudo mount /dev/xvdb /mnt/ebs/
sudo chown ec2-user:ec2-user /mnt/ebs/
sudo sh -c ‘echo "/dev/xvdb   /mnt/ebs   ext4   defaults,nofail 0  2" >> /etc/fstab‘

4.修改配置文件

进入hadoop目录,在etc/hadoop/core-site.xml文件中添加以下内容:

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/ec2-user/tmp</value>
    </property>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop.master:9000</value>
    </property>
</configuration>

在etc/hadoop/hdfs-site.xml文件中添加以下内容:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    <property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/mnt/ebs</value>
    </property>
</configuration>

在etc/hadoop/masters中添加以下内容:

hadoop.master

在etc/hadoop/slaves中添加以下内容:

hadoop.slave1
hadoop.slave2

配置Slave2

1.设定IP解析

同上

2.设置无密码登录

将Master中.ssh/id_dsa.pub中的内容添加到Slave2的.ssh/authorized_keys中。

3.挂载EBS

同上

4.修改配置文件

将Master的配置文件全部复制到Slave2,替换掉Slave2中Hadoop的配置文件。

在Master的Hadoop目录下执行以下命令:

tar -zcvf etc.tar.gz etc/
scp etc.tar.gz hadoop.slave2:

回到Slave2,将etc.tar.gz移动到Hadoop目录,并解压缩:

tar -zxvf etc.tar.gz

启动HDFS

在Master服务器的Hadoop目录下,执行以下命令启动HDFS集群:

sbin/start-dfs.sh

通过http://52.193.246.202:50070/dfshealth.html#tab-overview可看到Live Nodes有2个。

Hadoop(3)-HDFS