首页 > 代码库 > 在虚拟机VM中安装的Ubuntu上安装和配置Hadoop
在虚拟机VM中安装的Ubuntu上安装和配置Hadoop
一、系统环境:
- 我使用的Ubuntu版本是:ubuntu-12.04-desktop-i386.iso
- jdk版本:jdk1.7.0_67
- hadoop版本:hadoop-2.5.0
二、下载jdk和hadoop,并上传到Ubuntu系统中
Vmware中的Linux与主机系统Windows交互文件的方法请参考:http://blog.chinaunix.net/uid-27717694-id-3834143.html
三、设置hadoop用户:
sudo addgroup hadoop #创建hadoop用户组sudo adduser -ingroup hadoop hadoop #添加hadoop用户到hadoop组中sudo gedit /etc/sudoers #为hadoop用户添加权限在root设置权限的代码下添加一行:hadoopALL=(ALL:ALL) ALL
四、安装ssh,配置无密码登录
- 安装ssh-server:sudo apt-get install openssh-server
- 配置无密码登录:
ssh-keygen -t ras -P ""sudo cat ~/.ssh/id_rsa.pub >> authorized_keyschmod 644 authorized_keyssudo gedit /etc/ssh/sshd_config 把AuthroziedKeysFile %h/.ssh/authorized_keys这一行注释取消
3. ssh localhost 成功!
五、安装jdk
- 在usr/local目录下新建java文件夹,命令行:sudo mkdir /usr/local/java
- 把下载到的jdk压缩包拷贝到java文件夹下,命令行:sudo cp ***.tar.gz /usr/local/java
- 进入java目录,命令行:cd /usr/local/java
- 解压压缩包,命令行:sudo tar -xvf ***.tar.gz
- 删除压缩包,命令行:sudo rm ***.tar.gz
- 设置jdk环境变量
这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量sudo gedit /etc/profile打开之后在末尾添加export JAVA_HOME=/usr/local/java/jdk1.7.0_67export JRE_HOME=/usr/local/java/jdk1.7.0_67/jreexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATHexport PATH=$JAVA_HOME/bin:$PATH
7. 检验是否安装成功
java -version成功则显示如下java version "1.7.0_67"Java(TM) SE Runtime Environment (build 1.7.0_67-b18)Java HotSpot(TM) 64-Bit Server VM (build 24.45-b08, mixed mode)
六、安装Hadoop
- 把hadoop源码包拷贝到/home/hadoop目录下,命令行:sudo cp hadoop-2.5.0.tar.gz /home/hadoop
- 解压,命令行:sudo tar -xvf hadoop-2.5.0.tar.gz
- 配置hadoop环境变量
配置:sudo gedit /etc/profile添加:#HADOOP VARIABLES START export HADOOP_INSTALL=/home/hadoop/hadoop-2.5.0 export PATH=$PATH:$HADOOP_INSTALL/bin export PATH=$PATH:$HADOOP_INSTALL/sbin export HADOOP_MAPRED_HOME=$HADOOP_INSTALL export HADOOP_COMMON_HOME=$HADOOP_INSTALL export HADOOP_HDFS_HOME=$HADOOP_INSTALL export YARN_HOME=$HADOOP_INSTALL export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib" #HADOOP VARIABLES END
4. 配置core-site.xml,包含了Hadoop启动时的配置信息
sudo gedit /etc/hadoop/core-site.xml<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>
5. 配置yarn-site.xml,包含了MapReduce启动时的配置信息
sudo gedit /etc/hadoop/yarn-site.xml<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property></configuration>
6. 创建和配置mapred-site.xml
cd /etc/hadoopcp mapred-site.xml.template mapred-site.xml<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property></configuration>
7. 配置hdfs-site.xml
sudo gedit /etc/hadoop/hdfs-site.xml<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/hadoop/software/hadoop-2.4.0/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hadoop/software/hadoop-2.4.0/hdfs/data</value> </property></configuration>
8. 格式化hdfs,命令行:hdfs namenode -format
9. 启动hadoop
start-dfs.sh:启动NameNode,DataNode,SecondaryNameNodestart-yarn.sh:启动NodeManager,Resourcemanager
在虚拟机VM中安装的Ubuntu上安装和配置Hadoop
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。