首页 > 代码库 > hadoop1.2.1伪分布安装指南

hadoop1.2.1伪分布安装指南

1.伪分布式的安装

1.1 修改ip

(1)打开VMWare或者VirtualBox的虚拟网卡

(2)在VMWare或者VirtualBox设置网络连接方式为host-only

(3)在linux中,修改ip。有上角的图标,右键,选择Edit  Connections....

 ****ip必须与windows下虚拟网卡的ip在同一个网段,网关必须是存在的。

(4)重启网卡,执行命令service network restart

****报错,如no suitable adapter错误,

(5)验证:执行命令ifconfig

1.2 关闭防火墙

(1)执行命令:service iptables stop 关闭防火墙

(2)验证:执行命令service iptables status

1.3 关闭防火墙的自动开启

(1)执行命令chkconfig iptables off

(2)验证:执行命令chkconfig --list|grep iptables

1.4 修改hostname

(1)执行命令hostname master  修改会话中的hostname

(2)验证:执行命令hostname

(3)执行命令vi  /etc/sysconfig/network 

修改文件中的hostname:  HOSTNAME=master

(4)验证:执行命令reboot -h now 重启机器

1.5 设置iphostname绑定

(1)执行命令vi  /etc/hosts

在文本最后增加一行192.168.80.100 master

(2)验证:ping master

(3)在window中配置:主机名对应的ip

C:\Windows\System32\drivers\etc\hosts

192.168.80.100 master

1.6 ssh免密码登陆

(1)执行命令ssh-keygen -t rsa (然后一路Enter)  产生秘钥位于/root/.ssh/

(2)执行命令cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys  产生授权文件

(3)验证:ssh localhost  (ssh 主机名)

1.7 安装jdk

(1)使用winscp把jdk、hadoop复制到linux的/home/big_data/zip

(2)cp  /home/big_data/zip/*  /home/big_data/

(3)cd /home/big_data

(4)tar -zxvf jdk-7u60-linux-i586.tar.gz

(5)重命名 mv jdk1.7.0_60  jdk

(6)执行命令 vi /etc/profile 设置环境变量 

增加两行         

1 export JAVA_HOME= /home/big_data/jdk2 export PATH=.:$JAVA_HOME/bin:$PATH

 

保存退出

执行命令  source  /etc/profile

(7)验证:执行命令java -version

1.8 安装hadoop

(1)执行命令 tar -zxvf hadoop-1.2.1.tar.gz  解压缩

(2)执行命令  mv hadoop-1.2.1  hadoop

(3)执行命令 vi  /etc/profile  设置环境变量

增加一行       export HADOOP_HOME=/home/big_data/hadoop

修改一行       export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

保存退出

执行命令  source  /etc/profile     

(4)验证:执行命令 hadoop

(5)修改位于conf/的配置文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml

<1>文件hadoop-env.sh的第9行(指定jdk的安装路径)       

1 export JAVA_HOME=/home/big_data/jdk/

 

<2>文件core-site.xml (hadoop的核心配置文件,用于配置namenode的地址和端口)

 1 <configuration> 2   <property> 3     <name>fs.default.name</name> 4     <value>hdfs://master:9000</value> 5     <description>change your own hostname</description> 6   </property> 7   <property> 8     <name>hadoop.tmp.dir</name> 9     <value>/home/big_data/hadoop/tmp</value>10   </property>11 </configuration>

 

<3>文件hdfs-site.xml  (配置replication,即数据保存份数)

 1 <configuration> 2   <property> 3     <name>dfs.replication</name>   #表示设置副本数,默认是3 4     <value>1</value> 5   </property> 6   <property> 7     <name>dfs.name.dir</name>    # 先创建 mkdir -p /home/big_data/hadoop/hdfs 8     <value>/home/big_data/hadoop/hdfs/name</value> 9   </property>10   <property>11     <name>dfs.data.dir</name>12     <value>/home/big_data/hadoop/hdfs/data</value>13   </property>14   <property>15     <name>dfs.permissions</name>   #表示是否设置权限控制16     <value>false</value>17   </property>18 </configuration>

 

如果是super-user(超级用户),它是nameNode进程的标识。系统不会执行任何权限检查

<4>文件mapred-site.xml  (配置jobtracker的地址和端口)

1 <configuration>2   <property>3     <name>mapred.job.tracker</name>4     <value>master:9001</value>5     <description>change your own hostname</description>6   </property>7 </configuration>8  

 

(6)执行命令 hadoop namenode -format 进行格式化  (格式化hadoop的文件系统HDFS)

如果报错:

 

[root@master hdfs]# hadoop namenode -format

14/07/18 05:25:26 INFO namenode.NameNode: STARTUP_MSG: 

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = master/192.168.80.100

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.2.1

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by ‘mattf‘ on Mon Jul 22 15:23:09 PDT 2013

STARTUP_MSG:   java = 1.7.0_60

************************************************************/

Re-format filesystem in /home/big_data/hadoop/hdfs/name ? (Y or N) n

Format aborted in /home/big_data/hadoop/hdfs/name

14/07/18 05:25:31 INFO namenode.NameNode: SHUTDOWN_MSG: 

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at master/192.168.80.100

************************************************************/

 

请先删除 rm -rf /home/big_data/hdfs/*

(7)执行命令 start-all.sh 启动hadoop

(8)验证:

<1>执行命令jps 查看java进程,发现5个进程,分别是NameNode、SecondaryNameNode、DataNode、JobTracker、TaskTracker

 <2>通过浏览器查看:http://master:50070 和 http://master:50030

*****修改windows的C:/Windows/system32/drivers/etc/目录下的hosts文件

1.9如果去掉警告提示:

[root@cloud4 ~]# hadoop fs -ls /

Warning: $HADOOP_HOME is deprecated.(去掉警告)

方法如下:

[root@cloud4 ~]# vi /etc/profile   (添加一句话)

# /etc/profile

export HADOOP_HOME_WARN_SUPPRESS=1

export JAVA_HOME=/usr/local/jdk

export HADOOP_HOME=/usr/local/hadoop

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

 

[root@cloud4 ~]# source /etc/peofile  (立即生效)

 

先来爽一把,代码测试:

mkdir input

cp conf/* input/

bin/hadoop jar hadoop-examples-1.2.1.jar wordcount file:////home/big_data/hadoop/input output

hadoop fs -cat output/p*

技术分享

好了,看到这个结果,你可以笑一把,期待我下一章博客的到来吧???

哈哈

 

hadoop1.2.1伪分布安装指南