Допустим долго работующий spark job ломается в самом конце, как сделать, чтобы следующий retry (в airflow, например) не пересчитывал все, а продолжил с момента ошибки?
Я так понимаю persist или cache только в процессе выполнения job'а, после выхода (в случае ошибки) сотрется