АС
Подскажите, как можно перегонять большие объёмы данных внутри ClickHouse между таблицами.
Есть таблица с одним видом партиционирования, уже заполненная данными, хочу попробовать иное партиционирование, посмотреть перфоманс.
Но если создать новую таблицу и попытаться перегнать туда данные (200 млн строк), то сталкиваюсь с ошибкой вида:
Code: 241, e.displayText() = DB::Exception: Memory limit (for query) exceeded: would use 9.32 GiB (attempt to allocate chunk of 4194704 bytes), maximum: 9.31 GiB: While executing MergeSortingTransform (version 20.8.2.3 (official build))
Есть ли какие-то best-practices для таких нужд?