spark参数调优系列 目录地址:

https://blog.csdn.net/zyzzxycj/article/details/81011540
<https://blog.csdn.net/zyzzxycj/article/details/81011540>

 

⑨ Scheduling

spark.scheduler.maxRegisteredResourcesWaitingTime

在执行前最大等待申请资源的时间,默认30s。

spark.scheduler.minRegisteredResourcesRatio

实际注册的资源数占预期需要的资源数的比例,默认0.8

spark.scheduler.mode

调度模式,默认FIFO 先进队列先调度,可以选择FAIR。

spark.scheduler.revive.interval

work回复重启的时间间隔,默认1s

spark.scheduler.listenerbus.eventqueue.capacity

spark事件监听队列容量,默认10000,必须为正值,增加可能会消耗更多内存

spark.blacklist.enabled


是否列入黑名单,默认false。如果设成true,当一个executor失败好几次时,会被列入黑名单,防止后续task派发到这个executor。可以进一步调节spark.blacklist以下相关的参数:

(均为测试参数 Experimental)

spark.blacklist.timeout

spark.blacklist.task.maxTaskAttemptsPerExecutor

spark.blacklist.task.maxTaskAttemptsPerNode

spark.blacklist.stage.maxFailedTasksPerExecutor

spark.blacklist.application.maxFailedExecutorsPerNode

spark.blacklist.killBlacklistedExecutors

spark.blacklist.application.fetchFailure.enabled

spark.speculation

推测,如果有task执行的慢了,就会重新执行它。默认false,

详细相关配置如下:

spark.speculation.interval

检查task快慢的频率,推测间隔,默认100ms。

spark.speculation.multiplier

推测比均值慢几次算是task执行过慢,默认1.5

spark.speculation.quantile

在某个stage,完成度必须达到该参数的比例,才能被推测,默认0.75

spark.task.cpus

每个task分配的cpu数,默认1

spark.task.maxFailures

在放弃这个job前允许的最大失败次数,重试次数为该参数-1,默认4

spark.task.reaper.enabled

赋予spark监控有权限去kill那些失效的task,默认false

(原先有 job失败了但一直显示有task在running,总算找到这个参数了)

其他进阶的配置如下:

spark.task.reaper.pollingInterval

轮询被kill掉的task的时间间隔,如果还在running,就会打warn日志,默认10s。

spark.task.reaper.threadDump

线程回收是是否产生日志,默认true。

spark.task.reaper.killTimeout

当一个被kill的task过了多久还在running,就会把那个executor给kill掉,默认-1。

spark.stage.maxConsecutiveAttempts

在终止前,一个stage连续尝试次数,默认4。

友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:[email protected]
QQ群:637538335
关注微信