首页 > 代码库 > 基于spark1.4的Spark-Sql
基于spark1.4的Spark-Sql
Author: kwu
基于spark1.4的Spark-Sql,spark1.4.1在7月15刚公布。提供较好sql支持
1、怎样启动Spark-Sql
启动脚本例如以下
#!/usr/bin/env bash read -p "enter your username:" user read -s -p "enter your password:" pass sparksql -u jdbc:hive2://bdc:10000 -n $user -p $pass
执行后,依照提示输入username与password,进入查询终端。
2、进入Spark-Sql查询,測试例如以下:
select day,count(*) from ods.tracklog groupby day;
hive中执行
select day,count(*) from ods.tracklog groupby day;
3、查看Spark-Sql监控
http://bdc:4040
查看查询计划
退出登录
!q
基于spark1.4的Spark-Sql
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。