首页 > 代码库 > spark中使用sparksql对日志进行分析(属于小案例)
spark中使用sparksql对日志进行分析(属于小案例)
一:使用sparksql开发
1.sparksql开发的两种方式
HQL:SQL语句开发
eq : sqlContext.sql("xxxx")
DSL : sparkSql中DataFrame的API调用方式
eq:val df=sqlContext.xxx
df.select("number")
二:HQL的开发案例
1.新建目录上传日志
2.书写程序
spark中使用sparksql对日志进行分析(属于小案例)
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。