Spark on YARN

启动SparkOnYARN

确认HADOOP_CONF_DIR或者YARN_CONF_DIR指向的目录包含Hadoop集群的配置文件。Spark依赖这些配置文件的内容写HDFS或者向YARN申请资源。这些配置需要复制到Spark集群内所有的机器上,来保证整个集群使用的是同一套配置。如果配置中的Java系统变量或者环境变量不是YARN支持的,他们应该被设置到Spark应用的配置中(driver、executor和Application Master)

使用YARN启动Spark应用有两种模式(cluster和client)。在cluster模式下,Spark应用的Driver端根据YARN的调度运行在Application Master进程中,在启动Spark应用之后,客户端就可以直接退出了。在client模式下,Driver端运行在客户端进程里,Application Master只用来向YARN申请资源。

和standalone以及mesos模式不一样,在YARN模式下,ResourceManager的地址是从Hadoop配置文件中读到的,所以 --master 参数要设置值为 "yarn",以集群模式启动Spark应用需要这样写

./bin/spark-submit --class path.to.your.Class --master yarn --deploy-mode cluster [options] <app jar> [app options]

例如

./bin/spark-submit --class org.apache.spark.examples.SparkPi \
    --master yarn \
    --deploy-mode cluster \
    --driver-memory 4g \
    --executor-memory 2g \
    --executor-cores 1 \
    --queue thequeue \
    lib/spark-examples*.jar \
    10

上面这行命令启动了一个YARN的client程序,这个程序会启动一个默认的Application Master。 SparkPi这个类会作为Application Master进程的一个线程执行。客户端可以定期的从Application Master拉取一些统计信息,然后把这些信息显示在控制台上。当Spark应用执行完毕的时候这个client会自动退出。

以client模式启动一个Spark应用和前面差不多,只是把deploy-mode参数的cluster替换成client,下面这个行命令是使用client模式启动spark-shell

./bin/spark-shell --master yarn --deploy-mode client

添加其他JAR

cluster模式下,因为Driver端运行在其他机器上,所以代码里写SparkContext.addJar是没用的(client模式才可以这样写)。如果cluster模式下我们还有这个需求,我们要把想添加的jar文件用--jars参数拼在启动命令里。

./bin/spark-submit --class my.main.Class \
    --master yarn \
    --deploy-mode cluster \
    --jars my-other-jar.jar,my-other-other-jar.jar \
    my-main-jar.jar \
    app_arg1 app_arg2

准备

想要使用Spark on YARN需要有Spark独立的构建结果。官网上提供了下载地址,如果想要自己去构建一把也可以,相关信息在这里

配置

Spark on YARN模式的配置项大多数和另外两种一样。关于on YARN模式的特殊配置可以看这里

调试Spark应用

在YARN的属于里,executor和application master都运行在YARN的容器内。在Spark应用执行完毕后YARN有两种方式来管理容器内的日志。如果日志聚集功能打开(使用 yarn.log-aggregation-enable 配置项),容器日志会被复制到HDFS,并从所在的机器上删除。这些日志可以使用yarn logs命令在集群内的任意一台节点上查看

yarn logs -applicationId <app ID>

这条命令会打印这个应用(其实是Spark应用,但YARN是一个独立的资源调度与任务监控工具,只要符合它的规范,任何应用都可以使用YARN来做资源调度和任务监控,所以这里用了"应用"两个字而不是"Spark应用")在所有容器实例内的所有日志。我们也可以使用HDFS的API来直接查看日志。这些日志的存储路径使用yarn.nodemanager.remote-app-log-dir 和 yarn.nodemanager.remote-app-log-dir-suffix来配置,一个配置目录,一个配置文件后缀。这些日志还可以在Spark的WEB UI中的Executors 页签中查看。我们需要确保Spark History Server和MapReduce History Server都运行正常,并且早yarn-site.xml中配置了yarn.log.server.url属性。Spark History Server的UI会把查看日志的动作重定向到MapReduce History Server中来显示聚合后的日志。

日志聚合没打开时,日志会保存在每台执行的机器上,所在的目录是YARN_APP_LOGS_DIR,这个一般被配置到/tmp/logs目录或者$HADOOP_HOME/log/uiserlogs目录(具体位置取决于Hadoop版本和安装时的配置)。我们可以到具体的机器上去查看指定目录下的日志,子目录被按照applicationid和containerid组织。日志同样可以在Spark WEB UI中的Executors页签中查看,但此时不会重定向到MapReduce History Server了。

想查看每个容器启动时的环境变量,可以增加 yarn.nodemanager.delete.debug-delay-sec属性的值(比如设置为36000)然后到运行容器的机器上查看 yarn.nodemanager.local-dirs 目录中的内容。这个目录中包含了启动容器的脚本,jar包和所有的环境变量。这个骚操作在调试classpath和环境变量等问题时非常有用。(注意,启用此选项需要管理员权限才能进行群集设置并重新启动所有节点管理器。因此,这不适用于托管群集)。

要为application master和 executor使用自定义的log4j配置,可以使用下面的选项

  • 用spark-submit提交任务时,使用 --files 来上传一个自定义的log4j.properties
  • 配置Spark集群的时候,把 spark.driver.extraJavaOptions(这个是给driver的)或者spark.executor.extraJavaOptions(这个是给executor的)配置上 -Dlog4j.configuration=<log4j.properties文件的绝对路径>。注意,这样做需要配置的时候把 file:// 这个协议写上,这个文件也需要放到集群中所有节点上
  • 修改spark机器上配置文件目录内的log4j.properties(看样子是不需要重启了),但要注意这个配置比前面两个优先级要低,互相冲突的时候这个文件内的配置肯定不生效

需要注意的是:第一种方式的配置会让Application Master和Executor使用相同的配置文件,当ApplicationMaster和某个Executor在同一台机器上的时候,可能会有一些问题,因为他们在同时操作同一个日志文件。

如果我们需要设置一个适当的位置来让YARN放置、聚合日志,在log4j.properties文件中使用spark.yarn.app.container.log.dir 来配置文件输出位置,比如:

log4j.appender.file_appender.File=${spark.yarn.app.container.log.dir}/spark.log

如果是Streaming应用,需要配置 RollingFileAppender并且设置本地存储路径,来避免日志文件太大磁盘空间不足。

为Application Master和executor指定自定义的metrics.properties ,这个文件在spark配置目录中。对文件的修改会自动被提交给集群,所以我们不需要每次启动Spark应用手动指定 --files 参数。

下面是Spark的属性

名称 默认值 含义
spark.yarn.am.memory 512m client模式下指定Application Master总的内存大小,cluster模式下使用spark.driver.memory。使用小写字母后缀来指定单位:k,m,g,t
spark.yarn.am.cores 1 client模式下Application Master使用的cpu数量。cluster模式下用spark.driver.cores
spark.yarn.am.waitTime 100s cluster模式下application master等待SparkContext被初始化的时间。client模式下application master等待driver连接的时间
spark.yarn.submit.file.replication HDFS的副本数 Spark应用提交的文件在HDFS中的副本数,一般这些文件是:程序的jar和其他的分布式存储的文件或归档文件
spark.yarn.stagingDir 当前用户家目录 提交应用程序时使用的暂存目录。
spark.yarn.preserve.staging.files false 当Spark应用结束的时候,缓存的jar和文件是否删除。false为删除,设置为true是不删除
spark.yarn.scheduler.heartbeat.interval-ms 3000 application master到YARN resourcemanager的心跳间隔,单位是毫秒。这个值的上线时YARN配置的值的一半,也就是 yarn.am.liveness-monitor.expiry-interval-ms的值的一半
spark.yarn.scheduler.initial-allocation.interval 200ms 当ResourceManager没响应ApplicationMaster请求的时候,重复请求的间隔。这个值不应该比spark.yarn.scheduler.heartbeat.interval-ms大。如果ResourceManager一直没响应,ApplicationMaster会再次请求,直到得到反馈,或者总时间超过spark.yarn.scheduler.heartbeat.interval-ms值
spark.yarn.historyServer.address Spark History Server地址。
spark.yarn.dist.archives 会被复制到每个Executor所在机器上的归档
文件,逗号分隔
spark.yarn.dist.files 会被复制到每个Executor所在机器上的文件,逗号分隔
spark.yarn.dist.jars 会被复制到每个Executor所在机器上的jar文件,逗号分隔
spark.executor.instances 2 静态资源exector个数分配默认值。(Spark是静态资源分配,因为我们需要在执行前确认资源,不论命令行还是默认配置都是预先分配)当spark.dynamicAllocation.enabled为true时,是动态分配资源,这种场景Streaming的情况更多,因为需要的资源和业务峰值相关。
spark.yarn.executor.memoryOverhead executorMemory * 0.10,最少 384 每个executor分配的最少非堆内存,单位m。
spark.yarn.driver.memoryOverhead driverMemory * 0.10, 最少384 Driver端的非堆内存,单位m
spark.yarn.am.memoryOverhead AM memory * 0.10, 最少384 client模式下Application Master的非堆内存
spark.yarn.am.port 随机 Application Master的端口。client模式下,这个端口用于Driver端于ApplicationMaster的通信。cluster模式下用于接收调度程序的终止命令
spark.yarn.queue default 提交应用程序的YARN队列名称
spark.yarn.jars 需要分发到YARN容器中的Spark代码的jar包,多个用逗号分隔。Spark on YARN中Spark默认使用本地的Spark的jar,但是也可以把Spark的jar放到HDFS中全局可读,这样Spark应用程序使用这些jar的时候不需要每次都用 --jars 提交然后分发。
spark.yarn.archive 和spark.yarn.jars同样原理
spark.yarn.access.namenodes Spark应用程序可以访问的安全的HDFS的namenode节点列表,多个用逗号分隔spark.yarn.access.namenodes=hdfs://nn1.com:8032,hdfs://nn2.com:8032, webhdfs://nn3.com:50070。关于权限和K8S相关信息我还不了解,以后再回来修改
spark.yarn.appMasterEnv.[EnvironmentVariableName] 把环境变量添加到Application Master所在的进程中。在cluster模式下,这个环境变量可以被Driver端读取到, client模式下这个变量只有启动Driver的程序可以读取到
spark.yarn.containerLauncherMaxThreads 25 Application Master中用于启动执行程序容器的最大线程数
spark.yarn.am.extraJavaOptions Application Master启动的时候的JVM参数配置
spark.yarn.am.extraLibraryPath 在client模式下,启动Application Master的时候指定的jar加载路径
spark.yarn.maxAppAttempts yarn-site.xml中配置的yarn.resourcemanager.am.max-attempts 值 向YARN提交申请的时候最大的尝试次数,这个数字不应该超过YARN中配置的值
spark.yarn.am.attemptFailuresValidityInterval Spark监控ApplicationMaster的失败次数,如果这个值配置了,当ApplicationMaster运行持续时间超过这个值的时候,失败次数会被清零。这个属性不配置的时候不会生效,并且要求Hadoop版本在2.6以上
spark.yarn.executor.failuresValidityInterval 定义了Executor执行是否失败的检查间隔,超过这个检查间隔的错误会被忽略
spark.yarn.submit.waitAppCompletion true yarn cluster模式下,这个属性控制客户端是否需要同步等待任务执行完毕。如果设置为true,客户端进程会一直活着,并报告Spark应用的当前状态。如果设置为false,则客户端提交完毕后就立即退出
spark.yarn.am.nodeLabelExpression 声明ApplicationMaster的节点标签表达式,目的是限制哪些节点可以作为ApplicationMaster节点,但要求YARN版本在2.6以上
spark.yarn.executor.nodeLabelExpression 声明Executor的节点标签表达式,目的是限制哪些节点可以作为Executor节点,但要求YARN版本在2.6以上

to be continued

重要提示

  • 请求是否被及时响应依赖于当前使用的scheduler,以及这个scheduler的配置方式
  • 在cluster模式下,driver和executor使用的本地工作目录是YARN中配置的yarn.nodemanager.local-dirs目录下,用户指定的spark.local.dir是不起作用的。在client模式下,只有executor和cluster模式下一样,而Driver会使用spark.local.dir中的配置作为本地工作目录。这是因为client模式下Driver不是在YARN cluster里执行的。
  • 使用--files参数提交文件到集群可以指定别名,例如 --files localtest.txt#appSees.txt 这是会把localtest.txt提交到HDFS里,但是想要访问这个文件需要使用appSees.txt这个名字。
  • cluster模式下,可以用--jars来实现SparkContext.addJar的功能。

在安全集群中运行

TODO

给YARN配置外部Shuffle服务

这部分因为我不了解YARN,所以不是很明白。以后了解了再回来补充

使用Spark Shuffle Service,需要在YARN集群里做如下操作

  1. 使用YARN profile构建Spark。如果现在在使用预编译的发布版则跳过此步
  2. 找到spark-<version>-yarn-shuffle.jar。如果是自己构建这个包应该在 $SPARK_HOME/common/network-yarn/target/scala-<version>目录下。
    如果使用的是发布版,这个包应该在yarn目录下
  3. 在集群的每个NodeManager上把这个包添加到环境变量里
  4. 集群的每个NodeManager上的yarn-site.xml中,把spark_shuffle设置为 yarn.nodemanager.aux-services的值。然后设置org.apache.spark.network.yarn.YarnShuffleService替代yarn.nodemanager.aux-services.spark_shuffle.class
  5. 给NodeManager增加堆内存,在etc/hadoop/yarn-env.sh中设置YARN_HEAPSIZE。这个设置避免Shuffle过程中的内存回收
  6. 重启YARN集群中的所有NodeManager

当Spark Shuffle Service在YARN集群跑起来后,可以使用这个配置项
spark.yarn.shuffle.stopOnFailure ,默认是false。当SparkShuffleService初始化失败的时候是否关闭NodeManager。这个配置是避免当机器上的SparkShuffleService不可用的时候,任务被分配到了这台机器上。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,108评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,699评论 1 296
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,812评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,236评论 0 213
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,583评论 3 288
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,739评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,957评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,704评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,447评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,643评论 2 249
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,133评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,486评论 3 256
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,151评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,108评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,889评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,782评论 2 277
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,681评论 2 272