Size: a a a

2021 February 01

VP

Vitaly Pismarev in Airflow
Привет

Подскажите, а в KubernetesPodOperator можно указать размер запрашиваемых ресурсов  (память, проц)?
источник

VP

Vitaly Pismarev in Airflow
Что-то типа этого:
   resources:
     limits:
       cpu: 100m
       memory: 64Mi
     requests:
       cpu: 100m
       memory: 64Mi
источник

OI

Oleg Ilinsky in Airflow
Vitaly Pismarev
Привет

Подскажите, а в KubernetesPodOperator можно указать размер запрашиваемых ресурсов  (память, проц)?
Привет!
Можно, ща скину
источник

OI

Oleg Ilinsky in Airflow
а, блин
podoperator
у меня kubernetesExecutor
не так понял
источник

OI

Oleg Ilinsky in Airflow
executor_config={
   "KubernetesExecutor": {"request_memory": "6G",
                          "limit_memory": "6G",
                          "request_cpu": "2",
                          "limit_cpu": "2"
                          }
}
источник

OI

Oleg Ilinsky in Airflow
но у меня вот так работает)
источник

OI

Oleg Ilinsky in Airflow
мне кажется, что-то аналогичное должно быть
источник

VP

Vitaly Pismarev in Airflow
Oleg Ilinsky
а, блин
podoperator
у меня kubernetesExecutor
не так понял
спс, попробую.
Просто ml-ки хотят явно указывать ресурсы для контейнеров
источник

OI

Oleg Ilinsky in Airflow
Vitaly Pismarev
спс, попробую.
Просто ml-ки хотят явно указывать ресурсы для контейнеров
resources={'limit_memory': 1, 'limit_cpu': 1},
источник

OI

Oleg Ilinsky in Airflow
Oleg Ilinsky
resources={'limit_memory': 1, 'limit_cpu': 1},
источник

OI

Oleg Ilinsky in Airflow
Oleg Ilinsky
resources={'limit_memory': 1, 'limit_cpu': 1},
Возможно, что-то такое сработает
источник

VP

Vitaly Pismarev in Airflow
Да, я тоже по этой ссылке нашё параметр )
источник

AP

Anton Patsev in Airflow
Коллеги, пытаюсь найти в гугле использование dag, которые расположены на S3. Но ничего не нахожу. Если у вас DAG лежат на S3, то их предварительно копируете с S3 на локальный диск? Другой возможности как я понял нет?
источник

GB

Georgy Borodin in Airflow
Anton Patsev
Коллеги, пытаюсь найти в гугле использование dag, которые расположены на S3. Но ничего не нахожу. Если у вас DAG лежат на S3, то их предварительно копируете с S3 на локальный диск? Другой возможности как я понял нет?
s3fs
источник

YB

YURA BUYLOV in Airflow
Именно так работает gcp composer
источник

AP

Anton Patsev in Airflow
s3fs - монтирование S3 в локальную директорию - логично)
источник

P

Pavel in Airflow
Anton Patsev
Коллеги, пытаюсь найти в гугле использование dag, которые расположены на S3. Но ничего не нахожу. Если у вас DAG лежат на S3, то их предварительно копируете с S3 на локальный диск? Другой возможности как я понял нет?
Мы как раз такие приседания делали. Пока 2 месяца работает такая схема, 100+ дагов, ни единого разрыва))
Только схема без s3fs
Сделали sidecar, положили рядом airflow инстансами, раз в N секунд сиягивает даги с S3.
На s3 кладём при деплое.
Параметр fetch interval (или как он там) в airflow желательно поставить Nx2
источник

DN

Dmitriy Novikov in Airflow
Всем привет, не пойму как гуглить, есть в default_args настройка стопнуть даг если он работает over N time
источник

OI

Oleg Ilinsky in Airflow
Dmitriy Novikov
Всем привет, не пойму как гуглить, есть в default_args настройка стопнуть даг если он работает over N time
timeout
источник

OI

Oleg Ilinsky in Airflow
в секундах
источник