Size: a a a

2018 May 11

SS

Sergey Sheremeta in Airflow
мне думается. что проблема не в JDBCOperatork/JDBCHook от Airflow, а в связке JDBC-<ваша-процедура>.
источник

SS

Sergey Sheremeta in Airflow
Yaroslav Kuchmiy
не пробывал
дерзайте!
источник

YK

Yaroslav Kuchmiy in Airflow
спасибо за совет, буду пробывать
источник
2018 May 12

МС

Максим Сёмочкин in Airflow
Добрый вечер. Меня тут озадачили вопросом - потянет ли Airflow 2000 дагов. У кого нибудь есть опыт запуска большого количества дагов?

У нас просто их всего порядка 50.
источник

ДС

Дина Сафина in Airflow
200 с копейками
источник

I

Igor in Airflow
Интересно, это ребята хотят перейти с чего-то, что тянет 2000 дагов?
источник

МС

Максим Сёмочкин in Airflow
Нет. Скорее стандартизировать часть процессов. А там 2000 сущностей :)
источник

МС

Максим Сёмочкин in Airflow
Я пока не вникал в смысл процесса. Может они там группируются.
источник

МС

Максим Сёмочкин in Airflow
Стало интересно кто какие подводные камни видит.
источник

SS

Sergey Sheremeta in Airflow
БД метаданных нужно тюнить
источник

SS

Sergey Sheremeta in Airflow
фейловер шедулера делать
источник

SS

Sergey Sheremeta in Airflow
ни в коем случае не пиклить таски
источник

SS

Sergey Sheremeta in Airflow
ну и садить админа на поддержку этого добра
источник

МС

Максим Сёмочкин in Airflow
А БД то зачем тюнить?
источник

МС

Максим Сёмочкин in Airflow
Даже если эти две тысячи запустятся разом то ну будет 2k строк. Для постгри не проблема же
источник
2018 May 14

VS

Vladislav 👻 Shishkov in Airflow
Максим Сёмочкин
Добрый вечер. Меня тут озадачили вопросом - потянет ли Airflow 2000 дагов. У кого нибудь есть опыт запуска большого количества дагов?

У нас просто их всего порядка 50.
Не тянет по визуализации точно, плюс стабильность оставляет желать лучшего
источник

G

George in Airflow
Коллеги, пытаюсь загрузить на стейджинг зону большую таблицу из источника. Оператор сперва выполняет SQL-запрос к источнику, копируя результат в оперативную память, как я понимаю. Но памяти у него не хватает и таск фейлится. Подскажите, какие есть правильные способы решения этой проблемы?
источник

SS

Sergey Sheremeta in Airflow
если таблица партиционирована на источнике, то качайте ее по частям-партициям
источник

SS

Sergey Sheremeta in Airflow
я стараюсь такие перекачки делать в 3 этапа:
1) выгрузить на источнике в дамп (CSV, например)
2) перенести по scp с источника на приемник
3) загрузить дамп в стейджинг приемника
источник

OI

Oleg Ilinsky in Airflow
Если стандартный опертор грузит все в память, то надо написать свой, который будет выгружать блоками по N строк и складывать файл на сервере airflow, затем писать в целевую базу
источник