Spark Sort Shuffle Write

Spark sort shuffle write的过程大致如下:

  1. ShuffleMapTask的runTask()方法
override def runTask(context: TaskContext): MapStatus = {  
    // Deserialize the RDD using the broadcast variable.  
    val deserializeStartTime = System.currentTimeMillis()  
    val ser = SparkEnv.get.closureSerializer.newInstance()  
    val (rdd, dep) = ser.deserialize[(RDD[_], ShuffleDependency[_, _, _])](  
      ByteBuffer.wrap(taskBinary.value), Thread.currentThread.getContextClassLoader)  
    _executorDeserializeTime = System.currentTimeMillis() - deserializeStartTime  
  
    metrics = Some(context.taskMetrics)  
    var writer: ShuffleWriter[Any, Any] = null  
    try {  
      val manager = SparkEnv.get.shuffleManager  
      writer = manager.getWriter[Any, Any](dep.shuffleHandle, partitionId, context)  
      writer.write(rdd.iterator(partition, context).asInstanceOf[Iterator[_ <: Product2[Any, Any]]])  
      return writer.stop(success = true).get  
    } catch {  
      case e: Exception =>  
        try {  
          if (writer != null) {  
            writer.stop(success = false)  
          }  
        } catch {  
          case e: Exception =>  
            log.debug("Could not stop writer", e)  
        }  
        throw e  
    }  
  }  

首先得到shuffleManager,shuffleManager分为三种SortShuffleManager,HashshuffleManager,UnsafeShuffleManager。这里我们focus on SortShuffleManager。得到shuffleManager后,再拿到SortShuffleWriter。在调用SortShuffleWriter的write()方法将数据写入shuffle文件。

  1. SortShuffleWriter的write()方法
override def write(records: Iterator[Product2[K, V]]): Unit = {  
    if (dep.mapSideCombine) {  
      require(dep.aggregator.isDefined, "Map-side combine without Aggregator specified!")  
      sorter = new ExternalSorter[K, V, C](  
        dep.aggregator, Some(dep.partitioner), dep.keyOrdering, dep.serializer)  
      sorter.insertAll(records)  
    } else {  
      // In this case we pass neither an aggregator nor an ordering to the sorter, because we don't  
      // care whether the keys get sorted in each partition; that will be done on the reduce side  
      // if the operation being run is sortByKey.  
      sorter = new ExternalSorter[K, V, V](None, Some(dep.partitioner), None, dep.serializer)  
      sorter.insertAll(records)  
    }  
  
    // Don't bother including the time to open the merged output file in the shuffle write time,  
    // because it just opens a single file, so is typically too fast to measure accurately  
    // (see SPARK-3570).  
    val outputFile = shuffleBlockResolver.getDataFile(dep.shuffleId, mapId)  
    val blockId = ShuffleBlockId(dep.shuffleId, mapId, IndexShuffleBlockResolver.NOOP_REDUCE_ID)  
    val partitionLengths = sorter.writePartitionedFile(blockId, context, outputFile)  
    shuffleBlockResolver.writeIndexFile(dep.shuffleId, mapId, partitionLengths)  
  
    mapStatus = MapStatus(blockManager.shuffleServerId, partitionLengths)  
  }  

首先创建ExternalSorter对象,将数据插入到对象中。最后落盘(对每个Reducer生成一个数据文件和一个索引文件)。

  1. ExternalSorter的insertAll()方法
def insertAll(records: Iterator[_ <: Product2[K, V]]): Unit = {  
    // TODO: stop combining if we find that the reduction factor isn't high  
    val shouldCombine = aggregator.isDefined  
  
    if (shouldCombine) {  
      // Combine values in-memory first using our AppendOnlyMap  
      val mergeValue = aggregator.get.mergeValue  
      val createCombiner = aggregator.get.createCombiner  
      var kv: Product2[K, V] = null  
      val update = (hadValue: Boolean, oldValue: C) => {  
        if (hadValue) mergeValue(oldValue, kv._2) else createCombiner(kv._2)  
      }  
      while (records.hasNext) {  
        addElementsRead()  
        kv = records.next()  
        map.changeValue((getPartition(kv._1), kv._1), update)  
        maybeSpillCollection(usingMap = true)  
      }  
    } else if (bypassMergeSort) {  
      // SPARK-4479: Also bypass buffering if merge sort is bypassed to avoid defensive copies  
      if (records.hasNext) {  
        spillToPartitionFiles(  
          WritablePartitionedIterator.fromIterator(records.map { kv =>  
            ((getPartition(kv._1), kv._1), kv._2.asInstanceOf[C])  
          })  
        )  
      }  
    } else {  
      // Stick values into our buffer  
      while (records.hasNext) {  
        addElementsRead()  
        val kv = records.next()  
        buffer.insert(getPartition(kv._1), kv._1, kv._2.asInstanceOf[C])  
        maybeSpillCollection(usingMap = false)  
      }  
    }  
  }  

ExternalSorter里的存放数据的结构是PartitionedAppendOnlyMap对象。每写一条数据记录,都会调用maybeSpillCollection()方法来检查是否需要spill。

  1. ExternalSorter的maybeSpillCollection()方法
private def maybeSpillCollection(usingMap: Boolean): Unit = {  
  if (!spillingEnabled) {  
    return  
  }  
  
  if (usingMap) {  
    if (maybeSpill(map, map.estimateSize())) {  
      map = new PartitionedAppendOnlyMap[K, C]  
    }  
  } else {  
    if (maybeSpill(buffer, buffer.estimateSize())) {  
      buffer = if (useSerializedPairBuffer) {  
        new PartitionedSerializedPairBuffer[K, C](metaInitialRecords, kvChunkSize, serInstance)  
      } else {  
        new PartitionedPairBuffer[K, C]  
      }  
    }  
  }  
}  

estimateSize()是来估算PartitionedAppendOnlyMap对象占用的内存空间,估算的频率指数增长(为了控制估算函数的耗时)。

  1. ExternalAppendOnlyMap的spill()方法
    先按照partition排序(TimSort算法,复杂度nlog(n)),在spill到磁盘。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,198评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,663评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,985评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,673评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,994评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,399评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,717评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,407评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,112评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,371评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,891评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,255评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,881评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,010评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,764评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,412评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,299评论 2 260

推荐阅读更多精彩内容