по моему это делается чрез BashOperator где просто прописывается bash команда для запуска задачи, но тогда как airflow понимает завершилась ли она успешно + еще читал есть проблема со Spark Context, а точнее передачи его между Spark скриптами
Вообще да, к ливи основная прtтензия у нас в том, что POST /batches не принимает контент файла для запуска, а только путь до него. Видел PR на это, но там потом забили, найдя другое решение