Size: a a a

2020 July 16

ИХ

Ильяс Хакиев... in Airflow
ПРиветствую.
добавил в UI новое подключение к postgresql.
пробую подключится с ним, в хук не передается переменная, а используется стандартные
 def connection(self):
       src = PostgresHook(conn_name_attr='airflow_postgresql')
       src_conn = src.get_conn()
       cursor = src_conn.cursor()
сталкивался ли кто-нибудь с такой проблемой?
источник

K

KrivdaTheTriewe in Airflow
ребят , как вы настроили процесс ci/cd с  коннекшонами и энвайроментом
источник

K

KrivdaTheTriewe in Airflow
сча рест апи поддерживает работу с конекшонами и прочей радостью?
источник

K

KrivdaTheTriewe in Airflow
через энвы непонятно как всю экстру передавать и сложные структуры
источник

L

Lexis in Airflow
KrivdaTheTriewe
через энвы непонятно как всю экстру передавать и сложные структуры
if [ "${AIRFLOW__CORE__REMOTE_LOGGING,,}" = "true" ]; then
       export AIRFLOW__CORE__REMOTE_LOG_CONN_ID=u_S3_logs
       airflow connections --delete --conn_id ${AIRFLOW__CORE__REMOTE_LOG_CONN_ID}
       airflow connections \
             --add \
             --conn_id "${AIRFLOW__CORE__REMOTE_LOG_CONN_ID}" \
             --conn_type "s3" \
             --conn_login "${U_S3_LOGS_LOGIN}" \
             --conn_password "${U_S3_LOGS_PASSWORD}" \
             --conn_extra "${U_S3_LOGS_EXTRA}"
     fi
источник

L

Lexis in Airflow
я так ☝️в entrypoint.sh
источник

K

KrivdaTheTriewe in Airflow
Lexis
if [ "${AIRFLOW__CORE__REMOTE_LOGGING,,}" = "true" ]; then
       export AIRFLOW__CORE__REMOTE_LOG_CONN_ID=u_S3_logs
       airflow connections --delete --conn_id ${AIRFLOW__CORE__REMOTE_LOG_CONN_ID}
       airflow connections \
             --add \
             --conn_id "${AIRFLOW__CORE__REMOTE_LOG_CONN_ID}" \
             --conn_type "s3" \
             --conn_login "${U_S3_LOGS_LOGIN}" \
             --conn_password "${U_S3_LOGS_PASSWORD}" \
             --conn_extra "${U_S3_LOGS_EXTRA}"
     fi
ну то есть нужно все таки на тачку с эирфлоу иметь доступ
источник

K

KrivdaTheTriewe in Airflow
Lexis
я так ☝️в entrypoint.sh
энтрипоинт не оч, так как рестарт контейнера происходит
источник

K

KrivdaTheTriewe in Airflow
воркер посреди задачи не перезагрузишь
источник

K

KrivdaTheTriewe in Airflow
Lexis
if [ "${AIRFLOW__CORE__REMOTE_LOGGING,,}" = "true" ]; then
       export AIRFLOW__CORE__REMOTE_LOG_CONN_ID=u_S3_logs
       airflow connections --delete --conn_id ${AIRFLOW__CORE__REMOTE_LOG_CONN_ID}
       airflow connections \
             --add \
             --conn_id "${AIRFLOW__CORE__REMOTE_LOG_CONN_ID}" \
             --conn_type "s3" \
             --conn_login "${U_S3_LOGS_LOGIN}" \
             --conn_password "${U_S3_LOGS_PASSWORD}" \
             --conn_extra "${U_S3_LOGS_EXTRA}"
     fi
а реста нет?
источник

L

Lexis in Airflow
🤷‍♂️ мне так хватило)
источник

ME

Max Efremov in Airflow
Слушайте, а у airflow нет каких-то глобальных колбэков, что закончился даг? Я сейвкс у некотооых прописал on_success, но это надо у каждого делать...
источник

GG

George Gaál in Airflow
Max Efremov
Слушайте, а у airflow нет каких-то глобальных колбэков, что закончился даг? Я сейвкс у некотооых прописал on_success, но это надо у каждого делать...
Не слышал про такие
источник

DS

Dmitry Samoylov in Airflow
Max Efremov
Слушайте, а у airflow нет каких-то глобальных колбэков, что закончился даг? Я сейвкс у некотооых прописал on_success, но это надо у каждого делать...
можно в даге указать 'on_success_callback': some_function. А далее в ней проверять: все таски дага имеют статус SUCCESS or SKIPPED
источник

ME

Max Efremov in Airflow
Dmitry Samoylov
можно в даге указать 'on_success_callback': some_function. А далее в ней проверять: все таски дага имеют статус SUCCESS or SKIPPED
да, это сделал) Хотелось прям одной командой во все даги сразу, без копипасты параметров)
источник

ME

Max Efremov in Airflow
что-то типа СloudWatch Events
источник

DS

Dmitry Samoylov in Airflow
Max Efremov
да, это сделал) Хотелось прям одной командой во все даги сразу, без копипасты параметров)
можно сделать надстройку над DAG  - где предопределить это поведение, а в скриптах использовать MyDAG
источник

ME

Max Efremov in Airflow
Хорошая идея, спасибо!
источник

DS

Dmitry Samoylov in Airflow
Max Efremov
Хорошая идея, спасибо!
=)
источник

BB

Bral Bral in Airflow
Можно ли засунуть даги на ftp и оттуда их подтягивать? Вот у меня есть 6 нод, и что-то уже надоело обновлять каждую мануально. Какие есть бест практисы ?
источник