首页 > 代码库 > hadoop2.7.3+spark2.1.0环境搭建(1)安装jdk
hadoop2.7.3+spark2.1.0环境搭建(1)安装jdk
一、文件准备
下载jdk-8u131-linux-x64.tar.gz
二、工具准备
2.1 Xshell
2.2 Xftp
三、操作步骤
3.1 解压文件:
$ tar zxvf jdk-8u131-linux-x64.tar.gz
解压后文件目录移动到/opt/modules/下
建立连接jdk1.8到该目录
3.3 使用Vi编辑器,设置环境变量
$ sudo vi /etc/profile
在文件最后,添加如下内容:
#Java Env export JAVA_HOME=/opt/modules/jdk1.8 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin
3.4 退出vi编辑器,使环境变量设置立即生效
$ source /etc/profile
3.5 查看JDK版本
$ java -version java version "1.8.0_121" Java(TM) SE Runtime Environment (build 1.8.0_121-b13) Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)
hadoop2.7.3+spark2.1.0环境搭建(1)安装jdk
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。