首页 > 代码库 > hive安装以及hive on spark
hive安装以及hive on spark
spark由于一些链式的操作,spark 2.1目前只支持hive1.2.1
- hive 1.2安装
到http://mirror.bit.edu.cn/apache/hive/hive-1.2.1/ 网址下载hive1.2.1的部署包
2.配置系统环境变量/etc/profile
export HIVE_HOME=/opt/hive-1.2.1 export PATH=$PATH:$HIVE_HOME/bin source /etc/profile 使刚刚的配置生效
3. 解压
tar -xvf apache-hive-1.2.1-bin.tar
mv apache-hive-1.2.1-bin /opt/hive-1.2.1
4.修改配置文件
可不做任何修改hive也能运行,默认的配置元数据是存放在Derby数据库里面的,大多数人都不怎么熟悉,我们得改用mysql来存储我们的元数据,以及修改数据存放位置和日志存放位置等使得我们必须配置自己的环境,下面介绍如何配置。
cp $HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml cp $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh cp $HIVE_HOME/conf/hive-exec-log4j.properties.template $HIVE_HOME/conf/hive-exec-log4j.properties cp $HIVE_HOME/conf/hive-log4j.properties.template $HIVE_HOME/conf/hive-log4j.properties
修改 hive-env.sh
vi $HIVE_HOME/conf/hive-env.sh
export HADOOP_HOME=/root/hadoop
export HIVE_CONF_DIR=/opt/hive-1.2.1/conf
修改 hive-log4j.properties
mkdir $HIVE_HOME/logs vi $HIVE_HOME/conf/hive-log4j.properties
修改log.dir的目录 hive.log.dir=/opt/hive-1.2.1/logs
修改 hive-site.xml
cp mysql-connector-java-5.1.17.jar $HIVE_HOME/lib //复制mysql驱动包
hive安装以及hive on spark
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。