首页 > 代码库 > 环境搭建:JDK--SSH--VIM--Hadoop--SybaseIQ

环境搭建:JDK--SSH--VIM--Hadoop--SybaseIQ

放假闲来无事,就自己搭建了一套环境,包含:

工具:ssh,vim    环境:Jdk,Hadoop  

在此记录,下次使用

1.工具类

ssh和vim两个常用的工具就是两条命令:

vim命令:sudo apt-get install vim-gtk

ssh命令:sudo apt-get install openssh-server

2.环境

2.1 Jdk安装

Jdk安装只需要解压后就能使用(.tar.gz),但是需要在/etc/profile文件中插入如下代码:

技术分享
1 export JAVA_HOME=/opt/java/JDK
2 export JRE_HOME=${JAVA_HOME}/jre
3 export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
4 export HADOOP_HOME=/opt/java/hadoop
5 export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
代码

2.2 Hadoop安装

Hadoop安装只需要解压后就能使用(.tar.gz)

切换到${HADOOP_HOME}/etc/hadoop/文件夹中

1.修改core-site.xml文件

技术分享
 1 <configuration>
 2         <property>
 3              <name>hadoop.tmp.dir</name>
 4              <value>file:/opt/java/hadoop/tmp</value>
 5              <description>Abase for other temporary directories.</description>
 6         </property>
 7         <property>
 8              <name>fs.defaultFS</name>
 9              <value>hdfs://localhost:9000</value>
10         </property>
11 </configuration>
代码

2.修改hdfs-site.xml文件

技术分享
 1 <configuration>
 2         <property>
 3              <name>dfs.replication</name>
 4              <value>1</value>
 5         </property>
 6         <property>
 7              <name>dfs.namenode.name.dir</name>
 8              <value>file:/opt/java/hadoop/tmp/dfs/name</value>
 9         </property>
10         <property>
11              <name>dfs.datanode.data.dir</name>
12              <value>file:/opt/java/hadoop/tmp/dfs/data</value>
13         </property>
14 </configuration>
代码

3.格式化系统:

./bin/hdfs namenode -format

4.启动,停止服务代码:

 

./sbin/start-dfs.sh
./sbin/stop-dfs.sh

5.jps  校验服务是否启动

 

环境搭建:JDK--SSH--VIM--Hadoop--SybaseIQ