翻译:Hadoop权威指南之Spark-5

本文原始地址

剖析Spark工作的运行

我们来看下当我们运行一个Spark工作时,会发生什么。在最高级别上,有两个独立的实体:驱动(driver)和执行器(executors)。驱动持有(hosts)应用(SparkContext),为工作调度任务。执行器独立于应用,在应用的持续时间内运行,执行应用的任务。通常情况下,驱动作为客户端运行,不受集群管理器的管理,而执行器运行在集群中的多台机器上,但并非总是如此。在本节的其余部分,我们假定应用的执行器已经在运行。

工作的提交

图19-1说明了Spark是怎样运行一个工作的。当在一个RDD上执行一个行动时(比如count()),会自动提交一个Spark工作。内部来看,这会导致SparkContext的runJob()方法被调用(图19-1步骤1),该方法将调用传递给调度器,调度器作为驱动的一部分运行(步骤2)。调度器由两部分组成:DAG调度器和任务调度器。DAG调度器会把工作拆解为多个阶段组成的DAG。任务调度器的责任是把每个阶段的任务提交到集群。


图19-1. Spark怎样运行一个工作

接下来,我们来看看DAG调度器是怎样构建一个DAG的。

DAG的构建

为了理解怎样把一个工作拆分为阶段,我们需要看看阶段中运行的任务的类型。有两种任务类型:混洗map任务 shuffle map tasks 和结果任务 result tasks。任务类型的名字指示出Spark如何处理任务的输出:

混洗map任务
正如名字所暗示的,混洗map任务就像MapReduce中的map侧混洗。每个混洗map任务在一个RDD分区上(基于分区函数)执行计算,把输出写到一组新的分区,供后续的阶段获取,后续阶段可能由混洗map任务或者结果任务组成。混洗map任务运行在除最终阶段以外的所有阶段中。

结果任务
结果任务运行于最终阶段,把结果返回给用户程序(比如count()的结果)。每个结果任务在它的RDD分区上执行计算,然后把结果返回给驱动,驱动再把每个分区的结果组合成最终结果(可能是Unit,在saveAsTextFile()情况下)。

如果不需要混洗,仅有一个由结果任务组成的单独的阶段,这是最简单的Spark工作,就像MapReduce中仅有map任务的工作一样。

更复杂的工作会包含grouping操作,并且须要一个或多个混洗阶段。例如,存储在inputPath的文本文件(每行一个单词),下面的工作会计算出单词数量的直方图:

val hist: Map[Int, Long] = sc.textFile(inputPath)
  .map(word => (word.toLowerCase(), 1))
  .reduceByKey((a, b) => a + b)
  .map(_.swap)
  .countByKey()

前面两个转换操作,map()和reduceByKey(),执行单词计数。第三个map()转换操作,会把每个键值对的key和value交换,输出(count, word)对。最后一个是行动操作,countByKey(),返回每个count的word数量(单词数量的频率分布)。

Spark的DAG调度器把这个工作切分为两个阶段,因为reduceByKey()操作强制了一个混洗阶段。结果DAG如图19-2所示。

注意countByKey()是在驱动程序的本地执行最终的聚合操作,而不是第二个混洗阶段。这里不同于示例18-3中的Crunch程序,该程序使用了第二个MapReduce工作来做计数。


图19-2. 计算词数直方图的Spark工作中的阶段和RDD

一般来说,每个阶段内的RDD也会整理到DAG中。上图显示了RDD的类型和创建该RDD的操作。例如,RDD[String]是由textFile()创建的。为了简化图示,这里省略了Spark内部生成的一些中间RDD。比如,textFile()返回的RDD实际上是MapRDD[String],其父是HadoopRDD[LongWritable, Text]。

注意到转换操作reduceByKey()跨越了两个阶段,这是因为它的实现是一个混洗过程,该reduce函数在map侧作为combiner运行,在reduce侧作为reducer运行,正如MapReduce一样。还是与MapReduce相同,Spark的混洗实现会把输出写到本地磁盘的分区文件(即使是内存RDD也一样),这些文件被下一阶段的RDD读取。

通过配置,混洗的性能还有调优的余地。还要注意Spark使用自定义的混洗实现,与MapReduce的混洗实现没有任何的共享代码。

如果一个RDD在同一应用(SparkContext)中的前一个工作中持久化过,DAG调度器不会再创建重算这个RDD及其父RDD的阶段。

DAG调度器的责任是把阶段拆分为任务,提交给任务调度器。在这个例子中,第一个阶段,输入文件的每个分区对应运行一个混洗map任务。reduceByKey()操作的并行级别可以明确指定(传入第二个参数),如果不指定的话,将由父RDD确定,本例中是输入数据的分区数量。

DAG调度器为每个任务指定位置首选项,使得任务调度器可以利用数据本地化的优势。例如,如果一个任务处理的是存储在HDFS上的RDD分区,它的位置首选项是该分区的块(block)所在的数据节点(datanode),被称为节点本地 node local。如果一个任务处理的是缓存在内存中的RDD分区,它的位置首选项是存储该分区的执行器(executor),被称为进程本地 process local

回到图19-1,一旦DAG调度器创建了完整的阶段DAG,它就会把每个阶段的任务集提交给任务调度器(步骤3)。父阶段成功完成之后,子阶段才会提交。

任务的调度

当任务调度器接收到一坨任务时,它会查找执行器列表,在考虑位置首选项的基础上,建立任务到执行器的映射关系。接着,任务调度器把任务分配给那些有空闲核心的执行器(如果同一应用中的其他工作正在运行的话,这坨任务可能分配不完),随着执行器中任务的运行完成,调度器会继续分配更多的任务,直到这一坨任务全部完成。每个任务分配到的核心数量,可以通过属性spark.task.cpus来设置,默认是1。

对于某个特定的执行器,调度器首先为它分配进程本地(process-local)任务,然后是节点本地(node-local)任务,然后是机架本地(rack-local)任务,最后是任意的非本地(nonlocal)任务,或者是“推测(speculative)任务”,如果没有其他候选者的话。

被分配的任务通过调度器后端(scheduler backend)启动(图19-1步骤4),它会发送一个远程“启动任务消息”(步骤5)给执行器后端(executor backend),告诉执行器要运行任务了(步骤6)。

Spark的远程调用,使用的不是Hadoop RPC,而是Akka,一个基于actor模型的平台,用于构建高度可伸缩的、事件驱动的分布式应用。

当一个任务完成或者失败的时候,执行器会发送“状态更新消息”给驱动。如果任务失败,任务调度器会在另一个执行器上重新提交该任务。如果启用了“推测任务”,并且有运行比较慢的任务,任务调度器还会启动“推测任务”。推测任务默认是未启用的。

任务的执行

执行器运行一个任务的过程如下(步骤7)。首先,它要确认该任务的JAR包和依赖文件都是最新的。前面的任务使用过的依赖文件,会被执行器保持在本地缓存中,只在这些文件变化的时候,执行器才会去下载它们。第二步,执行器反序列化任务的代码(包括用户定义的函数),这些代码是作为“启动任务消息”的一部分发送过来的序列化字节。第三步,执行任务代码。注意,任务和执行器运行在同一个JVM中,因此不存在任务启动的进程开销(Mesos的细粒度模式是个例外,它的每个任务都是一个独立的进程)。

任务会把结果返回给驱动。结果序列化之后发送给执行器后端,然后作为“状态更新消息”返回给驱动。一个混洗map任务返回一些信息,使下一个阶段可以获取它输出的分区。一个结果任务返回它所运行的分区的结果值,驱动再把这些结果值组装成最终结果,返回给用户程序。

执行器和集群管理器

我们已经看过Spark是如何依赖于执行器来执行Spark工作中的任务的,但是我们掩盖了执行器实际上是怎样启动的。管理执行器的生命周期,是集群管理器的责任。Spark提供了多种具有不同特征的集群管理器:

本地
在本地模式下,只有一个执行器,和驱动运行在同一个JVM里。这种模式对于测试和运行小的工作非常有帮助。这种模式的master URL是local(一个线程),local[n](n个线程),或者local(*)(每个核心一个线程)。

独立
独立的集群管理器是一个简单的分布式实现。它运行一个master和一个或多个worker。当一个Spark应用启动时,master会代表这个应用,指示worker进行执行器进程的创建。这种模式的master URL是spark://host:port

Mesos
Apache Mesos是一个通用的集群资源管理器,根据一个组织策略,它允许不同的应用之间进行细粒度的资源共享。默认情况下(细粒度模式),每一个Spark任务,就是一个Mesos任务。这样可以高效利用集群资源,但是付出的代价是额外的进程启动的开销。在粗粒度模式下,执行器在进程内运行任务,因此在Spark应用的持续时间内,集群资源由执行器进程所持有。这种模式的master URL是mesos://host:port

YARN
YARN是Hadoop使用的资源管理器。一个运行中的Spark应用,对应一个YARN的应用实例。一个执行器在它自身的YARN容器中运行。这种模式的master URL是yarn-client或者yarn-cluster。

Mesos和YARN集群管理器,优于独立模式,因为它们会考虑集群中运行的其他应用的资源需求(比如MapReduce工作),并为这些应用强制执行一个调度策略。独立模式对集群资源进行静态分配,因此不能适应其他应用随着时间变化的需求。并且,YARN是唯一一个和Hadoop的Kerberos安全机制集成的集群管理器。

Spark on YARN

在YARN上运行Spark,可以和其他的Hadoop组件紧密集成,而且如果你已经有了一个Hadoop集群,这是使用Spark的最方便的方式。Spark提供了两种部署模式:YARN client模式,驱动在client端运行;YARN cluster模式,驱动运行在集群上的YARN application master里。

对于具有交互组件的程序,比如spark-shell或者pyspark,YARN client模式是必须的。当你构建一个Spark程序时,client模式也会非常有帮助,因为任何的调试输出都是立即可见的。

另一方面,YARN cluster模式适用于生产系统(production job),因为整个应用运行在集群上,这样能更容易的保留日志文件(包括驱动程序的日志)以备后查。另外,如果application master失败了,YARN会重试这个应用。

YARN client模式

在YARN client模式中,与YARN的交互开始于驱动程序创建一个新的SparkContext实例的时候(图19-3步骤1)。SparkContext把一个YARN应用提交给YARN资源管理器(步骤2),YARN资源管理器会在集群中某个节点管理器上启动一个YARN容器,然后在容器中运行一个Spark ExecutorLauncher应用(步骤3)。这个ExecutorLauncher的工作是通过向资源管理器请求资源(步骤4),在YARN容器中启动执行器。当容器被分配过来以后,启动ExecutorBackend进程(步骤5)。


图19-3. 在YARN client模式下,Spark执行器的启动过程

执行器启动以后,会回连到SparkContext并注册自己。这样SparkContext中就有了关于可用执行器的数量及其位置的信息。在分配任务时可基于这些位置信息进行决策。

在spark-shell,spark-submit和pyspark中,可以设置要启动的执行器的数量(如果不设置,默认是2),还有每个执行器使用的核心数量(默认是1)以及内存大小(默认是1024MB)。下面这个例子在YARN上运行spark-shell,配有4个执行器,每个执行器使用1个核心和2G内存:

% spark-shell --master yarn-client \
  --num-executors 4 \
  --executor-cores 1 \
  --executor-memory 2g

YARN资源管理器的地址,没有在master URL中指定(不同于独立模式或Mesos集群管理器),而是从Hadoop的配置中获取(Hadoop的配置位于环境变量HADOOP_CONF_DIR指定的目录下)。

YARN cluster模式

在YARN cluster模式中,用户的驱动程序运行在YARN的application master进程中。命令spark-submit的master URL是yarn-cluster:

% spark-submit --master yarn-cluster ...

其他的参数,比如num-executors以及应用的JAR文件(或者Python文件),与YARN client模式相同(使用spark-submit --help查看详细用法)。


图19-4. 在YARN cluster模式下,Spark执行器的启动过程

spark-submit客户端将会启动YARN应用(图19-4步骤1),但它不运行任何的用户代码。余下的流程与client模式相同,唯一的不同是,在为执行器分配资源之前(步骤4),驱动程序是由application master启动的(步骤3b)。

在这两种YARN模式中,执行器启动之前没有任何的数据本地化信息可以使用,因此这些执行器很可能不在那些持有工作对应文件的数据节点上。对于交互式会话,这是可以接受的,因为在会话开始之前可能不知道哪些数据集会被访问。但是对于生产系统(production job),这就不能接受了。因此Spark提供了一种给出位置线索的方式,以使运行YARN集群模式时的数据本地化程度得到提高。

SparkContext的构造函数可以接收第二个参数,用于指定偏爱的位置。此位置根据输入格式以及路径,使用InputFormatInfo帮助类计算而来。例如,对于文本文件,我们使用TextInputFormat:

val preferredLocations = InputFormatInfo.computePreferredLocations(
  Seq(new InputFormatInfo(new Configuration(), classOf[TextInputFormat],
  inputPath)))
val sc = new SparkContext(conf, preferredLocations)

“偏爱位置”被application master用来向资源管理器请求分配资源(步骤4)。本文写作时,Spark的最新版本是1.2.0,关于偏爱位置的API还不稳定,后续版本中可能会改变。

延伸阅读

本章仅仅覆盖了Spark的基础知识。更多细节请参阅《Learning Spark》。Apache Spark网站上也有关于Spark最新发行版的最新文档。

花了一个星期,在宝贝女儿(2岁)持续不断的骚扰下,终于把这件事情完成了。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 161,780评论 4 369
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 68,424评论 1 305
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 111,397评论 0 254
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,576评论 0 218
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,997评论 3 295
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,945评论 1 224
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,107评论 2 317
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,850评论 0 208
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,625评论 1 250
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,804评论 2 253
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,285评论 1 265
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,613评论 3 261
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,291评论 3 242
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,164评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,963评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 36,096评论 2 285
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,886评论 2 278

推荐阅读更多精彩内容