首页 > 代码库 > Hadoop2.4.1分布式安装
Hadoop2.4.1分布式安装
1、做好下文中的所有配置:Hadoop1.2.1分布式安装-1-准备篇。
2、Hadoop2.x的发行版中有个小问题:libhadoop.so.1.0.0在64位OS中存在问题,因为它是32位的,在64位OS中hadoop启动时会报一个WARN的日志。这个包的作用是调用native的api,可以提高hadoop的性能,如果这个包失效,那就是使用jvm做压缩等工作,效率就会很低。处理方法就是重新编译Hadoop,见xxx(link article)。
3、在打算做namenode的机器上,wget或其他方式下载hadoop的压缩包,并解压到本地指定目录。下载解压命令参考Linux常用命令。
4、各种配置文件和hadoop1会有所不同,共有七个文件,以下分别描述。
/hadoop-2.4.1/etc/hadoop/hadoop-env.sh
# The java implementation to use. export JAVA_HOME=${JAVA_HOME}
/hadoop-2.4.1/etc/hadoop/yarn-env.sh
# some Java parameters # export JAVA_HOME=/home/y/libexec/jdk1.6.0/ if [ "$JAVA_HOME" != "" ]; then #echo "run java in $JAVA_HOME" JAVA_HOME=$JAVA_HOME fi if [ "$JAVA_HOME" = "" ]; then echo "Error: JAVA_HOME is not set." exit 1 fi JAVA=$JAVA_HOME/bin/java JAVA_HEAP_MAX=-Xmx512m #默认的heap_max是1000m,我的虚拟机没这么大内存,所以改小了
/hadoop-2.4.1/etc/hadoop/slaves
#写入你slave的节点。如果是多个就每行一个,写入host名 bd04
/hadoop-2.4.1/etc/hadoop/core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://bd03:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> <property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/wukong/a_usr/hadoop-2.4.1/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>hadoop.proxyuser.hduser.hosts</name> </value>*</value> </property> <property> <name>hadoop.proxyuser.hduser.groups</name. <value>*</value> </property> </configuration>
hdfs-site.xml
<configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>bd03:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/wukong/a_usr/hadoop-2.4.1/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/wukong/a_usr/hadoop-2.4.1/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>bd03:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>bd03.19888</value> </property> </configuration>
yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>bd03:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>bd03:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>bd03:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>bd03:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>bd03:8088</value> </property> </configuration>
3、格式化
待续。。
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。