首页 > 代码库 > 关于hive
关于hive
这两天在研究了hbase,hadoop,hive,spark
由于spark.py不支持clust(jar才支持,但是太麻烦了>_<)
所以最终决定使用hive
在hive中用create external table后可以一同指定partition和location,这样就可以直接在hadoop的原始数据里进行查询了,
查询会自动转换成map reduce,
用msck可以修复之前partition有问题的地方
关于hive
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。