Size: a a a

ClickHouse не тормозит

2020 June 30

VM

Vadim Metikov in ClickHouse не тормозит
Bral Bral
Так вы же увеличили период, значит уменьшили гранулярность:)
Нет,  мы увеличили гранулярность,  индекс стал занимать в 4 раза меньше и на серверах освободили около 100гб озу,  хочу знать,  что потеряли. Пока ясно,  что читать стали более крупными блоками,  но мы по одной строке и не читали,  у нас графит-метрики
источник

BB

Bral Bral in ClickHouse не тормозит
Vadim Metikov
Нет,  мы увеличили гранулярность,  индекс стал занимать в 4 раза меньше и на серверах освободили около 100гб озу,  хочу знать,  что потеряли. Пока ясно,  что читать стали более крупными блоками,  но мы по одной строке и не читали,  у нас графит-метрики
Да как же увеличили, если количество засечек стало меньше . Ведь период 32 тысячи теперь
источник

BB

Bral Bral in ClickHouse не тормозит
Vadim Metikov
Нет,  мы увеличили гранулярность,  индекс стал занимать в 4 раза меньше и на серверах освободили около 100гб озу,  хочу знать,  что потеряли. Пока ясно,  что читать стали более крупными блоками,  но мы по одной строке и не читали,  у нас графит-метрики
Потеряли в запросах типо pk= чему то, если высокая кардинальность , больше чтений
источник

BB

Bral Bral in ClickHouse не тормозит
Vadim Metikov
Нет,  мы увеличили гранулярность,  индекс стал занимать в 4 раза меньше и на серверах освободили около 100гб озу,  хочу знать,  что потеряли. Пока ясно,  что читать стали более крупными блоками,  но мы по одной строке и не читали,  у нас графит-метрики
У меня ситуация обратная, я сознательно уменьшаю индекс, поскольку преобладают запросы точечные.
источник

S

Stanislav in ClickHouse не тормозит
Всем привет!
Запрос падает из-за ограничения по памяти на ноде.
Тип таблицы distributed
можно с этим как-то бороться, кроме увеличения памяти, или уменьшения диапазона выборки:?
За сутки прилетает примерно 5 млн строк
источник

DT

Dmitry Titov in ClickHouse не тормозит
Stanislav
Всем привет!
Запрос падает из-за ограничения по памяти на ноде.
Тип таблицы distributed
можно с этим как-то бороться, кроме увеличения памяти, или уменьшения диапазона выборки:?
За сутки прилетает примерно 5 млн строк
А сколько памяти на серверах?
источник

A

Andrey in ClickHouse не тормозит
Stanislav
Всем привет!
Запрос падает из-за ограничения по памяти на ноде.
Тип таблицы distributed
можно с этим как-то бороться, кроме увеличения памяти, или уменьшения диапазона выборки:?
За сутки прилетает примерно 5 млн строк
Группировки / сортировки есть?
источник

AK

Alexey Kostarev in ClickHouse не тормозит
Dmitry Titov
А оно было раньше?
Возможно его могло просто не быть.
Это основная функция для партиционирования MergeTree() с сортировкой по времени
Она родилась вместе с возникновением MergeTree() движка
источник

S

Stanislav in ClickHouse не тормозит
8 Гб на ноду, 8 нод
7Гб на запрос
и группировки, и сортировки
но даже без всего этого запрос падает, если хотябы за пару суток селектить
источник

DT

Dmitry Titov in ClickHouse не тормозит
Alexey Kostarev
Это основная функция для партиционирования MergeTree() с сортировкой по времени
Она родилась вместе с возникновением MergeTree() движка
Я про ее наличии в доках)
источник

BB

Bral Bral in ClickHouse не тормозит
Stanislav
8 Гб на ноду, 8 нод
7Гб на запрос
и группировки, и сортировки
но даже без всего этого запрос падает, если хотябы за пару суток селектить
Вам скорость обязательна или терпимо? Можно сбрасывать на диск, чтобы переполнения не было .
источник

K

Katherine in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
да, Replicated таблицы не пропускают дубли БЛОКОВ

добавьте параметр insert_deduplicate=0
спасибо!
источник

S

Stanislav in ClickHouse не тормозит
Bral Bral
Вам скорость обязательна или терпимо? Можно сбрасывать на диск, чтобы переполнения не было .
терпимо
а как на диск сбрасывать?
источник

DT

Dmitry Titov in ClickHouse не тормозит
Stanislav
8 Гб на ноду, 8 нод
7Гб на запрос
и группировки, и сортировки
но даже без всего этого запрос падает, если хотябы за пару суток селектить
Обычно можно разбить запрос на несколько таким образом

Where cityhash64(user_id)%10=0
источник

PL

Paul Loyd in ClickHouse не тормозит
Vadim Metikov
Мы наоборот,  получили экономию озу в 3 раза,  выставив 32768 вместо дефолта.  До этого 2,5 года исторических данных занимали в озу(РК) 160Гб
А что за PK был и сколько строк, если не секрет?
источник

BB

Bral Bral in ClickHouse не тормозит
Stanislav
терпимо
а как на диск сбрасывать?
max_bytes_before_external_group_by
источник

S

Stanislav in ClickHouse не тормозит
спасибо за советы!
источник

VM

Vadim Metikov in ClickHouse не тормозит
Paul Loyd
А что за PK был и сколько строк, если не секрет?
Строк по 50ккк в сутки, PrimaryKey всегда в памяти могу глянуть, если интересно
источник

BB

Bral Bral in ClickHouse не тормозит
Stanislav
спасибо за советы!
источник

PL

Paul Loyd in ClickHouse не тормозит
Vadim Metikov
Строк по 50ккк в сутки, PrimaryKey всегда в памяти могу глянуть, если интересно
Очень интересно
источник