Даги с башоперктором из стандартных примеров выполняются(запускал example_skip_dag), а те, что были созданы мной с pythonoperator меняют статус с scheduled на queued и обратно. Предлагаемые в task instance details переменные изменены на очень большие, чтобы прям наверняка, но и это не дало результатов... Какие могут быть варианты?
airflow живет в кубере, пока с внутренней бд, задача быстро сделать персистентное хранение. Решение - подмонтировать внешнюю папку в место хранения данных. Подскажите, где по дефолту аирфлошный контейнер держит данные БД?