首页 > 代码库 > eclipse编写scala应用运行在spark集群上
eclipse编写scala应用运行在spark集群上
代码
package spark_1 import org.apache.spark.SparkConf import org.apache.spark.SparkContext class WorkCountTest {
//自定义函数 def jiSuan(){ //数据文件路径 var loadFile="hdfs://服务器ip:8020/tmp/dataTest/Z";
//初始化sparkContext var conf=new SparkConf(); conf.setAppName("workCountZhangxs"); conf.setMaster("spark://服务器ip:7077") var sc=new SparkContext(conf);
//从hdfs上读取文件 var fileRdd=sc.textFile(loadFile, 2);
//过滤出包含执行的字符("yao") var countRdd=fileRdd.filter(line=>line.contains("yao"));
//计算出count var countF=countRdd.count(); println(countF) sc.stop(); } } object mainA{ def main(args: Array[String]) {
//初始化类 var t=new WorkCountTest();
//调用计算函数 t.jiSuan(); } }
输出结果
eclipse编写scala应用运行在spark集群上
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。