首页 > 代码库 > 基于centos6.5 hadoop 伪分布式安装

基于centos6.5 hadoop 伪分布式安装

步骤1:修改IP 地址和主机名:

vi /etc/sysconfig/network-scripts/ifcfg-eth0

如果该文件打开为空白文件代表你计算机上的网卡文件不是这个名称“ifcfg-eth0” ,可以 cd /etc/sysconfig/network-scripts/ 这个目录查看以ifcfg-***开头的文件,就是你的网卡文件。再进行编辑 vi /etc/sysconfig/network-scripts/ifcfg-***

主要修改项为:

                   BOOTPROTO="static"   ###         

                   IPADDR="192.168.100.70"   ###

                   NETMASK="255.255.255.0"  ###

                   GATEWAY="192.192.100.1"    ###

 

BOOTPROTO 修改为静态

IPADDR 要修改的具体ip

NETMASK 网关

GATEWAY 网关

主机名修改:

Vim /etc/sysconfig/network 

NETWORKING=yes

HOSTNAME=hadoop1

 

hostname 查看主机名

 

步骤2:修改主机名与ip地址对应关系

 

vim /etc/hosts

192.168.100.70 hadoop1

 

步骤3:关闭防火墙

查看防护墙状态

service iptables status                  

关闭

service iptables stop                  

查看防火墙开机启动状态

chkconfig iptables --list                  

关闭开机启动

chkconfig iptables off

 

步骤4:安装jdk 首先下载jdk7 jdk-7u79-linux-x64.gz

将jdk-7u79-linux-x64.gz 复制到/usr/local/目录下

解压:tar -zxvf jdk-7u79-linux-x64.gz 解压成功后会在/usr/local/目录下产生 java-1.7.0_79目录。

配置环境变量:

vim /etc/profile

在文件最下面添加如下内容:

export JAVA_HOME=/usr/local/java-1.7.0_79

exprot PATH=$PATH:$JAVA_HOME/bin

保存退出

使上面文件立即生效:

source /etc/profile

验证安装是否成功:

java -version

如果出现jdk1.7之类字样代表安装成功

 

步骤5:安装hadoop2.7.1

         上传hadoop安装包到 /usr/local/hadoop-2.7.1.tar.gz

         并进行解压

         tar -zxvf hadoop-2.7.1.tar.gz

只有解压之后才可以操作以下步骤。

 

         伪分布式需要修改5个配置文件

         3.1配置hadoop

         第一个:hadoop-env.sh(所在目录/usr/local/hadoop-2.7.1/etc/hadoop/)

                   vim hadoop-env.sh

                   #第27行

                   export JAVA_HOME=/usr/local/java-1.7.0_79

                   以下几个xml都在/usr/local/hadoop-2.7.1/etc/haoop/目录下

         第二个:core-site.xml

                   <!-- 制定HDFS的老大(NameNode)的地址 -->

                   <property>

                            <name>fs.defaultFS</name>

                            <value>hdfs://hadoop1:9000</value>

                   </property>

                   <!-- 指定hadoop运行时产生文件的存储目录 -->

                   <property>

                            <name>hadoop.tmp.dir</name>

                            <value>/home/hadoop-2.7.1/tmp</value>

        </property>

                  

                   备注:这里的hadoop1是计算机名

         第三个:hdfs-site.xml

                   <!-- 指定HDFS副本的数量 -->

                   <property>

                            <name>dfs.replication</name>

                            <value>1</value>

        </property>

                  

         第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)

                   mv mapred-site.xml.template mapred-site.xml

                   vim mapred-site.xml

                   <!-- 指定mr运行在yarn上 -->

                   <property>

                            <name>mapreduce.framework.name</name>

                            <value>yarn</value>

        </property>

                  

         第五个:yarn-site.xml

                   <!-- 指定YARN的老大(ResourceManager)的地址 -->

                   <property>

                            <name>yarn.resourcemanager.hostname</name>

                            <value>hadoop1</value>

        </property>

                   <!-- reducer获取数据的方式 -->

        <property>

                            <name>yarn.nodemanager.aux-services</name>

                            <value>mapreduce_shuffle</value>

        </property>

        

                   //备注这里的hadoop1是计算机名

         3.2将hadoop添加到环境变量

        

         vim /etc/proflie

                   export JAVA_HOME=/usr/local/java/jdk1.7.0_79

                   export HADOOP_HOME=/usr/local/hadoop-2.7.1

                   export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

修改完成后profile,使之立即生效命令:

source /etc/profile

步骤6:验证与测试

1格式化namenode(是对namenode进行初始化)

                   hdfs namenode -format (hadoop namenode -format)

                  

         2启动hadoop

                   先启动HDFS

                   sbin/start-dfs.sh

                  

                   再启动YARN

                   sbin/start-yarn.sh

                  

         3验证是否启动成功

                   使用jps命令验证

                   3504 DataNode

                   3386 NameNode

                   3813 ResourceManager

                   4087 NodeManager

                   3664 SecondaryNameNode

                   4206 Jps

                   http://192.168.100.70:50070 (HDFS管理界面)

                   http://192.168.100.70:8088 (MR管理界面)

 

测试hdfs:

 

上传文件进行测试

hadoop fs -put /usr/local/hadoop/hadoop-2.7.1.tar.gz hdfs://hadoop1:9000/hadoop

 

“/usr/local/hadoop/hadoop-2.7.1.tar.gz”是本地一个文件,“hdfs://hadoop1:9000/hadoop”代表hdfs上的一个文件位置

 

下载文件测试 :

hadoop fs -get  hdfs://hadoop1:9000/hadoop /home/hd

 

 

测试yarn

首先进入hadoop的安装目录下的/share/hadoop/mapreduce/ ,

再使用hadoop-mapreduce-examples-2.7.1.jar

 

新建一个文件words文件内容如下,并上传到hdfs中

Hello tom

Hello jer

Hello jack

Hello kety

Hello tom

 

上传到hdfs;

hadoop fs -put /usr/hadoop/words hdfs://hadoop1:9000/words

 

hadoop jar hadoop-mapreduce-examples-2.7.1.jar wordcount hdfs://hadoop1:9000/words hdfs://hadoop1:9000/wordresult

 

下载hdfs://hadoop1:9000/wordresult 可以查看内容

 

Hello 5

jack   1

jer      1

kety   1

tom   2

 

代表hadoop伪分部式安装成功

基于centos6.5 hadoop 伪分布式安装