Spark 算子

1. Value 型

(1) 输入、输出分区 一对一

  • map

      // 将数据逐个迭代,生成新的值或键值对
      val rdd1 = sc.parallelize(1 to 3, 3)
      
      rdd1.map(x => (x, 1))
    
  • flatMap

      // 合并每个分区中的元素,生成一个新的集合
      val rdd1 = sc.parallelize(1 to 3, 3)
      
      rdd1.flatMap(x => x) // => Array( 1, 2, 3 )
    
  • mapPartitions

      // 将每个分区进行一次map
      val rdd1 = spark.sparkContext.parallelize(1 to 9, 3)
      
      rdd1.mapPartitions{iter =>
        val list = ListBuffer[Int]()
      
        while(iter.hasNext){
          val item = iter.next()
          list.append(item * 2)
        }
      
        list.toIterator // 返回迭代器
      }.collect().foreach(println)
    
  • glom

      // 分区 => 数组
      val rdd1 = sc.parallelize(1 to 3, 3)
      
      rdd1.glom.collect // => Array( Array(1), Array(2), Array(3) )
    

(2) 输入、输出分区 多对一

  • union:并集(不去重)

      // 合并多个 RDD
      rdd1.union(rdd2) // rdd1 + rdd2
    
  • intersection:交集(去重)

      rdd1.intersection(rdd2) // rdd1 * rdd2
    
  • subtract:差集

      rdd1.subtract(rdd2) // rdd1 - rdd2
    
  • cartesian:笛卡尔积

      // 对 RDD 进行笛卡尔积计算
      
      rdd1.cartesian(rdd2)
    

(3) 输入、输出分区 多对多

  • groupBy

      // 分组
      
      val rdd1 = sc.parallelize(1 to 9, 3)
      
      rdd1.groupBy(x => {
        if(x % 2 == 0)
            "偶数"
        else
            "奇数"
      })
    

(4) 输出为输入的子集

  • filter

      // 按一定条件过滤数据
      
      val rdd1 = sc.parallelize(1 to 9, 3)
      
      rdd1.filter(x => x % 2 == 0)
    
  • distinct

      // 去重
      
      rdd1.distinct
    
  • sample

      // 采样
      val rdd1 = sc.parallelize(1 to 100000, 3)
      
      /**
       *    参数
       *    (1) withReplacement: Boolean    是否有放回采样
       *    (2) fraction: Double                    采样比例
       *    (3) seed: Long                              种子
       */
      rdd1.sample(false, 0.1, 0L)
    
  • takeSample

      // takeSample 与 sample 不同的是:不使用相对比例采样,而是按设定的个数进行采样
      rdd1.takeSample(true, 20, 0L)
    
  • Cache型
    • cache
    • persist

2. Key-Value 型

(1) 输入、输出分区一对一

  • mapValues

      // 对 value 进行操作
      
      val rdd1 = sc.parallelize(List("dog","cat","tiger","lion","mouse"), 2)
      val rdd2 = rdd1.map(x => (x.length, x)) // Array( (3, dog), (3, cat), ... )
      
      rdd2.mapValues(x => "#" + x + "#") // Array( (3, #dog#), (3, #cat#), ... )
      // 只有一个参数时,可以使用通配符 "_"
      rdd2.mapValues("#" + _ + "#")
    
  • zip

      // 合并两个 RDD 为键值对
      // 注意分区数、元素数量 必须相同
      
      val rdd1 = sc.parallelize(List("dog","cat","tiger","lion","mouse"), 2)
      val rdd2 = sc.parallelize(List(1,1,2,3,3), 2)
      val rdd3 = rdd2.zip(rdd1)
      
      // Array((1,dog), (1,cat), (2,tiger), (3,lion), (3,mouse))
    

(2) 对单个 RDD 聚集

  • combineByKey

      val rdd1 = sc.parallelize(List("dog","cat","tiger","lion","mouse"), 2)
      val rdd2 = sc.parallelize(List(1,1,2,3,3), 2)
      val rdd3 = rdd2.zip(rdd1) // Array((1,dog), (1,cat), (2,tiger), (3,lion), (3,mouse))
      
      // 根据 Key 合并
      val rdd4 = rdd3.combineByKey(
                  List(_),    // createCombiner
                  (x: List[String], y: String) => y::x,   // mergeValue
                  (x: List[String], y: List[String]) => x:::y // mergeCombiners
          )
      
      // Array((3,List(rabbit, cat)), (5,List(bee)), (2,List(dog, bear)))
    
  • reduceByKey

      val rdd1 = sc.parallelize(List("dog","cat","tiger","dog","mouse"), 2)
      val rdd2 = sc.parallelize(List(1,1,2,3,3), 2)
      val rdd3 = rdd1.zip(rdd2) // Array((dog,1), (cat,1), (tiger,2), (dog,3), (mouse,3))
      
      // 根据 Key 相减
      val rdd4 = rdd3.reduceByKey(_+_)
      
      // Array((dog,4), (cat,1), (tiger,2), (mouse,3))
    
  • partitionByKey

(3) 对两个 RDD 聚集

  • Cogroup

  • 连接

    • join
    • leftOutJoin
    • rightOutJoin

3. Action 算子

  • 无返回值
    • foreach
  • HDFS 输出
    • saveAsTextFile
    • saveAsObjectFile
  • 集合、数据类型
    • collect
    • collectAsMap
    • reduceByKeyLocally
    • lookup
    • count
    • top
    • reduce
    • fold
    • aggregate

4. 数据加载算子

  • 文件读取
    • textFile
  • 内存生成
    • makeRDD
    • parallelize
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,015评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,262评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,727评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,986评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,363评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,610评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,871评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,582评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,297评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,551评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,053评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,385评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,035评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,079评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,841评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,648评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,550评论 2 270

推荐阅读更多精彩内容