首页 > 代码库 > Spark下的RHive的连接
Spark下的RHive的连接
Sys.setenv(HADOOP_CONF_DIR=‘/etc/hadoop/conf.cloudera.hdfs‘)
Sys.setenv(YARN_CONF_DIR=‘/etc/hadoop/conf.cloudera.yarn‘)
library(SparkR, lib.loc = "/opt/modules/spark/R/lib")
library(RHive)
sc <- sparkR.init(sparkHome = "/opt/modules/spark",
sparkPackages="com.databricks:spark-csv_2.10:1.4.0")
sqlContext <- sparkRSQL.init(sc)
rhive.connect("master", defaultFS=‘hdfs://master:8020‘,hiveServer2=TRUE,user="hue")
rhive.query("select * from data.data_orders limit 5")
rhive.close()
Spark下的RHive的连接
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。