прикол в том, что на сервере в докере, который в интернете, то работает. а на локальном компьютере в докере не хочет (
но в принципе даг вот: from airflow import DAG
from airflow.operators.python import PythonOperator
from airflow.utils.dates import days_ago
from utils import db, whitebit, config
from datetime import timedelta
import os
DAG_ID = os.path.basename(file).replace('.pyc', '').replace('.py', '')
CONN_ID = 'postgres_stocks'
BASE_NAME_PRICE_TABLE = config.CONFIG.get(f'BASE_NAME_PRICE_TABLE')
TICKER = config.CONFIG.get('ASH_UAH_PAIR')
PRICE_TABLE = config.CONFIG.get(f'{TICKER}_{BASE_NAME_PRICE_TABLE}')
default_args = {
'owner': 'airflow',
'depends_on_past': False,
'start_date': days_ago(1),
'retries': 2,
'retry_delay': timedelta(minutes=5),
'email_on_failure': False,
'email_on_retry': False,
}
with DAG(
dag_id=DAG_ID,
default_args=default_args,
schedule_interval=None,
) as dag:
load_ash_uah_data = PythonOperator(
task_id='load_ash_uah_data',
python_callable=db.load_df_to_db,
op_kwargs={
'connector': CONN_ID,
'df': whitebit.get_price_by_ticker(
TICKER
),
'table_name': PRICE_TABLE,
}
)