Всем привет! Подскажите по переливке данных из Postgres.
Цель - периодически подливать в таблицу ClickHouse данные из Postgres.
Сделал ENGINE=ODBC таблицу, из нее через INSERT INTO merge_tree_table SELECT * FROM odbc_table переливаю данные.
Т.к. данных очень много, clickhouse-odbc съедает всю память и убивается OOMKIller'ом.
Как правильно переливать большой объем данных, есть ли варианты кроме как самостоятельно реализовывать логику разбивки на куски?
Может можно задать какой-то размер буффера для ODBC (не нашел в настройках)?
Если аналогично переливать через PIPE "psql ... | clickhouse-client ... INSERT INTO" не будет пробем с памятью?