比如用下面的方式提交任务:
spark-submit --deploy cluster x.y.z a.jar
提交任务完了之后,程序就回终止返回.然后让 driver 在 cluster 上继续执行 Job.
假如说希望Job B在Job A执行完成之后执行,并且依然用cluster deploy mode来提交任务,该如何做到呢?
Job B
Job A
cluster deploy mode