Size: a a a

2020 September 09

АС

Алексей Савельев... in Airflow
s
источник

АС

Алексей Савельев... in Airflow
в конце
источник

IL

Ilya Lozhkin in Airflow
поправил да
источник

IL

Ilya Lozhkin in Airflow
разве можно достать из indexing_contents. xcom из get_telegram_content?
источник

IL

Ilya Lozhkin in Airflow
его же нет в списке upstream_task_ids
источник

IL

Ilya Lozhkin in Airflow
то есть мне приходиться еще в branch повторно пуллить данные
s3_urls = task_instance.xcom_pull(task_ids="get_telegram_content")
print(s3_urls)
if len(s3_urls) == 0:
   return 'exiting'

task_instance.xcom_push(key="return_value", value=s3_urls)
источник

IL

Ilya Lozhkin in Airflow
@savelyev_an проблема была в опечатке, спасибо)
источник

ME

Max Efremov in Airflow
Я вообще не уточняю названия тасок, когда из xcom достаю. Просто по ключу
источник

IL

Ilya Lozhkin in Airflow
И еще вопрос, как увеличить время между
webserver_1  | [2020-09-09 13:10:02,038] {dagbag.py:417} INFO - Filling up the DagBag from /opt/airflow/dags
У меня динамически создаются даги и мне вообще не нужно, что бы он сам запускал рефреш
источник

DM

Dan M. in Airflow
Смотри конфиг
источник

IL

Ilya Lozhkin in Airflow
я так понял
AIRFLOW__CORE__DAG_FILE_PROCESSOR_TIMEOUT=36000
источник

IL

Ilya Lozhkin in Airflow
но, что то изменений не заметил
источник

VA

Vladislav Akatov in Airflow
Таск завершается со статус кодом -9, как в https://stackoverflow.com/questions/62015555/airflow-task-info-task-exited-with-return-code-9. Есть такой комментарий:
-9 indicates the system killed the process, most likely as the DataFrame consumed too much memory. Best advice is to rewrite your script to use less memory or to scale up the machine running Airflow (if possible).
А как скейлить докер контейнер или машинку, как дебажить даг?
источник

VA

Vladislav Akatov in Airflow
sqlalchemy.exc.OperationalError: (psycopg2.OperationalError) could not translate host name "postgres" to address: Temporary failure in name resolution
и вот такая тема еще иногда вылезает
источник

E

Edya in Airflow
Vladislav Akatov
Таск завершается со статус кодом -9, как в https://stackoverflow.com/questions/62015555/airflow-task-info-task-exited-with-return-code-9. Есть такой комментарий:
-9 indicates the system killed the process, most likely as the DataFrame consumed too much memory. Best advice is to rewrite your script to use less memory or to scale up the machine running Airflow (if possible).
А как скейлить докер контейнер или машинку, как дебажить даг?
посмотрите логи оом-киллера
grep -i 'killed process' /var/log/messages
источник

VA

Vladislav Akatov in Airflow
Edya
посмотрите логи оом-киллера
grep -i 'killed process' /var/log/messages
Там таких логов нет, но есть такие:
alternatives.log  apt  btmp  dpkg.log  faillog lastlog  wtmp
источник

VA

Vladislav Akatov in Airflow
Edya
посмотрите логи оом-киллера
grep -i 'killed process' /var/log/messages
В остальных такого нет, но идею понял, спасибо
источник
2020 September 10

МА

Максим Аникин... in Airflow
Всем привет! Только-только решился переехать с pentaho на airflow (пока объёмы позволяют переехать). Задумался над тем как свой будущий ETL-пайплайн (со всеми зависимостями python) перетащить с машины локальной на сервак где всё добро будет выполняться по расписанию. А задумался, потому что изначально планировал закинуть пайплайн в докер. Мимо проскочила инфа, что пихать airflow в докер не лучшая идея из за не всегда корректной работы оного с датой/временем. Опыта нету пока поэтому спросить хочу коммунити. Подскажите пожалуйста действительно ли это не лучшая идея, и какие тут вообще могут быть варианты с упаковкой зависимостей и переноса всего этого? Можно ссылкой швырнуть =)
источник

ME

Max Efremov in Airflow
У нас вроде норм в докере, с датой точно проблем не было...
источник

ME

Max Efremov in Airflow
Везде UTC
источник