Size: a a a

2020 September 25

VS

Vladislav 👻 Shishkov... in Airflow
суть в sqlite
источник

VS

Vladislav 👻 Shishkov... in Airflow
localexecuter на sqlite - это sequentialexecutor
источник

ME

Max Efremov in Airflow
Я делал сиквентал на MySQL, он всё равно одну таску за раз делает)
источник

ME

Max Efremov in Airflow
Но чуть быстрее
источник

VS

Vladislav 👻 Shishkov... in Airflow
про это написано в ссылке
источник

А

Анатоли in Airflow
спасибо, но когда я уже должен подставить значения их в админке прописывать
там где variables или где
источник

I

Igor in Airflow
Max Efremov
Я делал сиквентал на MySQL, он всё равно одну таску за раз делает)
sequential всегда будет одну, на то он и последовательный
источник

I

Igor in Airflow
всё чётко, увидел таску — сделал таску
источник

ME

Max Efremov in Airflow
Igor
всё чётко, увидел таску — сделал таску
У нас так сейчас прод живёт 😂
источник

А

Анатоли in Airflow
если airflow 8080 остановить потом запустить прописанные в админке connections остаются?
источник

I

Igor in Airflow
Речь про вебсервер? Он их сохраняет в базу данных
источник

А

Анатоли in Airflow
Игорь спасибо, никак не могу написать dag читает из  базы posgres
но как сохранить по простому резульат , там в файл?
Может подскажите, просто нет примера
источник

ME

Max Efremov in Airflow
Мы из mysql средствами дб писали дамп
источник

ME

Max Efremov in Airflow
Так быстрее будет
источник

GB

Georgy Borodin in Airflow
Подскажите, пожалуйста, столкнулся с такой проблемой:

Вводные: Airflow в AWS ECS, CeleryExecutor, Redis.
Запущены 2 типа воркеров с разными характеристиками (есть большая задача, которую никак не разбить на подтаски из-за коннекта к стороннему сервису).
Воркеры попроще запущены командой airflow worker -q default, помощнее – airflow worker -q heavy.

В даге создаётся около 10 сабдагов, в каждом из них ~90 тасков: первый – это ShortCircuitOperator, аргумент для инициализации – queue='default', второй – PythonOperator, ему нужно много ресурсов, ему передаю аргумент queue='heavy'.

В описании тасков в Web UI вижу, что разные очереди, в Postgres смотрю – вижу, что у тасков тоже разные очереди, но выполняют всё только default воркеры. В итоге ресурсы помощнее "проистаивают".

В Flower я тоже вижу только default очередь, что я мог пропустить в настройках?

UPD: по логам scheduler-а видно, что он отправляет все таски в default
источник

К

Константин in Airflow
Привет)
После переезда в облако даг запускается, но таски не стартуют. Как думате с чем может быть связано?
источник

ME

Max Efremov in Airflow
Константин
Привет)
После переезда в облако даг запускается, но таски не стартуют. Как думате с чем может быть связано?
Воркеры работают нормально?
источник

А

Анатоли in Airflow
подскажите что здесб неправильно
with DAG('hook_dag’,
    default_args=default_args,
    schedule_interval= @once,
    catchup-False) as dag:

       start.task = DummyOperator(task_id='start_task')
       hook.task = PythonOperator (task_id='hook_task', python_callable=get_activated_sources)
       start_task » hook_task

пишет
The requested task could not be added to the DAG because a task with task_id create_tag_template_field_result is already in the DAG. Starting in Airflow 2.0, trying to overwrite a task will raise an exception.
источник

PA

Panchenko Andrey in Airflow
так вы такс ид пытаетесь в очередь поставить , а нужно объекты
источник

А

Анатоли in Airflow
File "/root/airflow//dags/first_dag.py", line 9
   'owner':'airflow',
          ^
SyntaxError: invalid syntax
источник