привет! Впервые вынужден использовать cloud composer + airflow, прошу помощи. Нужно запускать скрипт раз в сутки, который будет доставать все данные из таблицы bigquery, сериализировать в json и загружать их merge запросом в snowflake таблицу. Нашел операторы для чтения из bigquery и для записи в snoflake. У меня 2 вопроса: Как получить данные из bigquery в виде словаря (оператор возвращает кортеж со значениями)? Как связать шаги между собой (узнал про xcom, но как передать значение из bigquery)?
В эирфлоу не стоит передавать большие объемы данных между тасками, xcom нужны для обмена какими-то параметрами и переменными. Можно в первой таске вычитать данные из bq на диск и положить в xcom путь до файла. А в таске с записью в Snowflake получить значение xcom, прочитать файл, конвертировать в нужный тебе формат и отправить