Всем доброго времени суток! Ребят, может кто уже пробовал и знает... Каким образом эффективнее выгружать большие таблицы из постгреса? Есть задача перегонять в GCS, но встроенный оператор, увы, вычитывает все в память, что, в случае большого объема данных, может привести к нехорошим последствиям
вот я и думаю по поводу copy или pg_dump. А не обращал внимание, как оно с памятью работает?
Увы, нет, доводилось работать лишь как с сервисом поверх копи. Полагаю, что ответ можно найти в доке. Теоретически должна быть возможность задать параллелизм и потребление и прочее
Ошибки в студию. Еще варианты: 1. Убрать {{}}, передав list. 2. type(dag_run.conf['send_to_emails']), есть подозрение что возвращает не list. 3. Формат почтовых ящиков не верный.
Привет, господа. Обновил квадраты в своём ДАГе, в итоге они за прошлые дни стали белыми. При этом в ДАГе стоит depends_on_past=True. Правильно ли я понимаю, что следующий раз по расписанию он не запустится, тк прошлые инстансы не пробежали? И можно ли что-нибудь сделать, если я не хочу прогонять их за прошлые дни?