首页 > 代码库 > spark rddToPairRDDFunctions countByKey
spark rddToPairRDDFunctions countByKey
package com.latrobe.spark import org.apache.spark.{SparkContext, SparkConf} /** * Created by spark on 15-1-18. * 计算出每个key对应的value的数量 */ object CountByKey { def main(args: Array[String]) { val conf = new SparkConf().setAppName("spark-demo").setMaster("local") val sc = new SparkContext(conf) /** * 引入implicit def rddToPairRDDFunctions,目的是使用countByKey方法 */ import org.apache.spark.SparkContext._ val c = sc.parallelize(List((1,"java"),(2,"c"),(3,"c++"),(3,"iOS"))) //打印结果Map(2 -> 1, 1 -> 1, 3 -> 2) println(c.countByKey()) } }
spark rddToPairRDDFunctions countByKey
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。