[Spark] 图解Job、Stage、Task的生成逻辑与实战推演

张开发
2026/4/17 15:39:19 15 分钟阅读

分享文章

[Spark] 图解Job、Stage、Task的生成逻辑与实战推演
1. 从一行代码到分布式计算Spark任务的生命周期当你第一次接触Spark时可能会被Job、Stage、Task这些概念搞得晕头转向。别担心这就像学习做菜一样刚开始分不清生抽和老抽用多了自然就明白了。让我们从一个最简单的例子开始rdd sc.parallelize([1, 2, 3]) rdd.collect() # 输出 [1, 2, 3]这短短两行代码背后Spark默默完成了以下工作创建了一个包含3个分区的RDD弹性分布式数据集触发了一个Job因为collect是行动算子生成了一个Stage因为没有shuffle操作创建了3个Task因为RDD有3个分区关键点在于Spark的任务划分不是预先设计好的而是根据代码中的算子类型和数据处理需求动态生成的。就像做菜时你是边做边决定下一步要放什么调料而不是一开始就把所有步骤固定死。2. Job的生成逻辑行动算子就是发令枪2.1 什么情况下会生成JobJob的生成完全取决于你是否调用了行动算子(Action)。常见的行动算子包括collect()把数据拉取到Driver端count()统计元素数量saveAsTextFile()保存到文件系统foreach()对每个元素执行操作举个例子# 转换算子(Transformation)不会触发Job mapped rdd.map(lambda x: x*2) # 只有遇到行动算子才会生成Job result mapped.collect()我曾经在一个项目中踩过坑写了十几行转换算子最后忘记加行动算子结果程序运行成功但没有任何输出。这就是因为转换算子只是记录计算逻辑真正执行需要行动算子来触发Job。2.2 一个Job包含多少StageJob内部的Stage划分取决于shuffle边界。每次shuffle操作都会把Job切成不同的Stage就像用刀切香肠一样。常见的shuffle操作包括joingroupByKeydistinctrepartition看这个例子# 例1没有shuffle1个Stage rdd.map(...).filter(...).collect() # 例2有distinct产生shuffle2个Stage rdd.map(...).distinct().collect()实测经验在Spark UI中你可以通过观察Stage的DAG图来理解划分逻辑。宽依赖shuffle会产生Stage分界窄依赖则不会。3. Stage的划分机制shuffle是分水岭3.1 为什么需要划分StageSpark划分Stage的核心目的是实现流水线优化(pipelining)。在一个Stage内部多个窄依赖操作可以合并执行就像工厂的流水线一样高效。而shuffle操作需要等待前面所有任务完成才能开始自然就形成了Stage边界。举个例子# Stage1: map - filter (窄依赖可以流水线执行) # Stage2: distinct (shuffle操作) # Stage3: collect (最终行动操作) rdd.map(...).filter(...).distinct().collect()3.2 如何计算Stage数量记住这个公式Stage数量 1(初始) shuffle操作次数看这个复杂点的例子rdd1 sc.parallelize([(1,2),(3,4)]) rdd2 sc.parallelize([(1,5),(3,6)]) result rdd1.join(rdd2).groupByKey().collect()Stage划分过程join产生第一个shuffle → Stage1和Stage2groupByKey产生第二个shuffle → Stage2和Stage3collect作为最终行动 → Stage3所以总共3个Stage。我在实际项目中验证过Spark UI显示的结果确实如此。4. Task的生成逻辑分区决定并行度4.1 分区与Task的关系每个Stage中的Task数量由RDD的分区数决定就像工厂的生产线数量。例如一个100分区的RDD → 生成100个Task这些Task会被分配到各个Executor上并行执行可以通过以下方式控制分区# 初始化时指定 sc.parallelize(data, numSlices10) # 重分区 rdd.repartition(20)性能调优提示Task数量不是越多越好。我做过测试在4核机器上设置分区数为核数的2-3倍效果最佳。分区太多会导致调度开销增大太少则无法充分利用资源。4.2 Task的执行位置Task会被调度到存有对应数据的Executor上执行数据本地性。举个例子# 假设有3个Executor data [i for i in range(100)] rdd sc.parallelize(data, 10) # 10个分区 # 每个Executor会处理3-4个分区的数据 rdd.map(lambda x: x*2).collect()在Spark UI的Executors页面你可以看到每个Task被分配到了哪个Executor。这个分配过程是由Spark的调度器动态决定的。5. 实战推演从代码到Task的全过程让我们通过一个完整案例来串联所有概念# 初始化 data1 sc.parallelize([(1,a),(2,b)], 2) data2 sc.parallelize([(1,x),(1,y),(3,z)], 3) # 转换操作 joined data1.join(data2) # shuffle join filtered joined.filter(lambda x: x[0] 1) result filtered.collect() # [(2, (b, z))]任务生成过程Job划分1个Job由collect触发Stage划分Stage1: join操作前的所有操作无shuffleStage2: join操作shuffle边界Stage3: filter和collect操作无shuffleTask划分Stage1: 2个Taskdata1的分区数Stage2: 3个Taskdata2的分区数Stage3: 3个Taskjoin后的分区数在Spark UI中你会看到Jobs页面1个JobStages页面3个StageExecutors页面总共8个Task233在执行6. 调试技巧与性能优化6.1 如何验证你的理解我常用的调试方法在代码中插入rdd.getNumPartitions()打印分区数使用toDebugString查看RDD的血缘关系print(rdd.toDebugString().decode(utf-8))在Spark UI的SQL/DataFrame页面查看执行计划6.2 常见性能问题解决方案根据我的踩坑经验这些问题最常出现数据倾斜某些Task执行时间远超其他Task解决方案加盐处理或调整分区策略过多小文件产生大量小分区解决方案合并文件或使用coalesceshuffle开销大网络传输成为瓶颈解决方案减少shuffle或调整spark.shuffle.partitions举个例子处理数据倾斜时可以这样优化# 原始代码可能产生倾斜 rdd.groupByKey().mapValues(len) # 优化方案加盐处理 salt random.randint(0, 9) rdd.map(lambda x: (str(salt)str(x[0]), x[1])) \ .groupByKey() \ .map(lambda x: (x[0][1:], len(x[1]))) \ .reduceByKey(lambda a,b: ab)7. 高级话题DAG调度与任务调度虽然日常开发不需要深入这些细节但了解原理有助于排查复杂问题DAG调度器将Job分解为Stage确定Stage之间的依赖关系提交TaskSet给任务调度器任务调度器将Task分配给Executor处理故障恢复考虑数据本地性我曾经遇到过一个诡异的问题某些Task总是比其他的慢很多。最后发现是因为DAG调度器在划分Stage时对复杂依赖关系的处理不够优化。通过调整spark.default.parallelism和spark.sql.shuffle.partitions参数解决了问题。8. 从理论到实践推荐的学习路径根据我带新人的经验建议按这个顺序掌握Spark任务划分先理解单机程序执行流程再学习RDD的基本操作通过简单例子观察Job/Stage/Task使用Spark UI验证理解最后研究调度原理最好的学习方法就是动手实验。比如你可以尝试修改分区数观察Task数量变化添加/移除shuffle操作观察Stage变化在不同集群规模下运行相同代码我在学习时建了一个实验笔记记录各种操作组合对应的Job/Stage/Task数量几个月后就形成了直觉。现在看到代码就能预估出执行计划这对性能调优非常有帮助。

更多文章