Size: a a a

ClickHouse не тормозит

2020 June 16

DC

Denny Crane (I don't... in ClickHouse не тормозит
Andrew Kochen
пытаюсь настроить кластер КХ в докере
поднимаю зукипер и два кх в один шард

create table ... on cluster .. ENGINE = ReplicatedMergeTree(...) не работает - пишет
DB::Exception: DDL background thread is not initialized

В интернетах пишут, что это значит, что КХ не настроены на зукипер

Однако если отдельно с обоих хостов создать таблицу без on cluster, то все ок - и пути в зукипере есть , и репликация работает....
таблица system.zookeeper есть?
источник

AK

Andrew Kochen in ClickHouse не тормозит
есть
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
ищите в логе сразу после старта КХ сообщение про падение DDLWorker
источник

D

Dj in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
DJ провел исследование и все разжевал тут в чатике все, размазано правда на несколько дней
Сорри я выпал, контекст?
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Dj
Сорри я выпал, контекст?
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
куда уходит память при group by и сколько ее надо
источник

D

Dj in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
куда уходит память при group by и сколько ее надо
https://t.me/clickhouse_ru/141945
собственно вот кому надо...
источник

D

Dj in ClickHouse не тормозит
Konstantin Malanchev
Пролетариат требует доклад на митапе или пост где-нибудь =)
вот весь доклад ^, если выбросить маркетинг и слайды для повышения ЧСВ )))
у вас скорее всего много ядер слишком.
источник

KM

Konstantin Malanchev in ClickHouse не тормозит
Спасибо! 8 всего, куда меньше =)
источник

D

Dj in ClickHouse не тормозит
Konstantin Malanchev
Спасибо! 8 всего, куда меньше =)
ну у вас и памяти не 786 ГБ =)
источник

KM

Konstantin Malanchev in ClickHouse не тормозит
Ну у меня и данных-то чуть. Спасибо, очень познавательный слайд
источник

И

Иван in ClickHouse не тормозит
Добрый вечер, подскажите у меня довольно часто возникает такая ошибка:
<Error> aaa.my_table: DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Code: 235, e.displayText() = DB::Exception: Part 202006_2175069_2175076_1 (state Committed) already exists, Stack trace:

Так же вижу такой варнинг в логах:
<Warning> aaa.my_table (ReplicatedMergeTreePartCheckThread): Found parts with the same min block and with the same max block as the missing part 202006_2186437_2195108_1948. Hoping that it will eventually appear as a result of a merge.

Таблица такая:
CREATE TABLE aaa.my_table
(
   created        Date,
   ts             DateTime,
   event          String,
   taskTs         DateTime
)
ENGINE ReplicatedMergeTree('/clickhouse/table/aaa/my_table', '{replica}')
PARTITION BY toYYYYMM(created)
ORDER BY (event, taskTs)
SETTINGS index_granularity = 8192  

Реплик 10 штук, все пишут и читают.
Записей 2M строк в день. соответственно 60М в партиции
Репликация сильно не отстает вроде

Вопрос: Почему возникают такие ошибки (весьма часто - сотни раз в день)? Что за процесс происходит к которому это приводит?
Поможет ли уменьшение размера партиций например?
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Иван
Добрый вечер, подскажите у меня довольно часто возникает такая ошибка:
<Error> aaa.my_table: DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Code: 235, e.displayText() = DB::Exception: Part 202006_2175069_2175076_1 (state Committed) already exists, Stack trace:

Так же вижу такой варнинг в логах:
<Warning> aaa.my_table (ReplicatedMergeTreePartCheckThread): Found parts with the same min block and with the same max block as the missing part 202006_2186437_2195108_1948. Hoping that it will eventually appear as a result of a merge.

Таблица такая:
CREATE TABLE aaa.my_table
(
   created        Date,
   ts             DateTime,
   event          String,
   taskTs         DateTime
)
ENGINE ReplicatedMergeTree('/clickhouse/table/aaa/my_table', '{replica}')
PARTITION BY toYYYYMM(created)
ORDER BY (event, taskTs)
SETTINGS index_granularity = 8192  

Реплик 10 штук, все пишут и читают.
Записей 2M строк в день. соответственно 60М в партиции
Репликация сильно не отстает вроде

Вопрос: Почему возникают такие ошибки (весьма часто - сотни раз в день)? Что за процесс происходит к которому это приводит?
Поможет ли уменьшение размера партиций например?
т.е. у вас 10 реплик, шардов нет, и distributed таблицы нет?

логлевел trace? что показывает лог если прогрепать его по 202006_2175069_2175076_1 ?
источник

И

Иван in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
т.е. у вас 10 реплик, шардов нет, и distributed таблицы нет?

логлевел trace? что показывает лог если прогрепать его по 202006_2175069_2175076_1 ?
Эта таблица нужна без шардов, на всех репликах одинаковая. другие таблицы шардированы при необходимости. Логи гляну сейчас
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Иван
Добрый вечер, подскажите у меня довольно часто возникает такая ошибка:
<Error> aaa.my_table: DB::StorageReplicatedMergeTree::queueTask()::<lambda(DB::StorageReplicatedMergeTree::LogEntryPtr&)>: Code: 235, e.displayText() = DB::Exception: Part 202006_2175069_2175076_1 (state Committed) already exists, Stack trace:

Так же вижу такой варнинг в логах:
<Warning> aaa.my_table (ReplicatedMergeTreePartCheckThread): Found parts with the same min block and with the same max block as the missing part 202006_2186437_2195108_1948. Hoping that it will eventually appear as a result of a merge.

Таблица такая:
CREATE TABLE aaa.my_table
(
   created        Date,
   ts             DateTime,
   event          String,
   taskTs         DateTime
)
ENGINE ReplicatedMergeTree('/clickhouse/table/aaa/my_table', '{replica}')
PARTITION BY toYYYYMM(created)
ORDER BY (event, taskTs)
SETTINGS index_granularity = 8192  

Реплик 10 штук, все пишут и читают.
Записей 2M строк в день. соответственно 60М в партиции
Репликация сильно не отстает вроде

Вопрос: Почему возникают такие ошибки (весьма часто - сотни раз в день)? Что за процесс происходит к которому это приводит?
Поможет ли уменьшение размера партиций например?
про Warning надо опять же грепать лог и смотреть что в select * from system.replication_queue на всех репликах, возможно некоторые реплики не могут достучаться до некоторых реплик
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Иван
Эта таблица нужна без шардов, на всех репликах одинаковая. другие таблицы шардированы при необходимости. Логи гляну сейчас
я ОК, у меня тоже так, меня больше всего интересует как делается вставка, есть distributed таблица или нет
источник

И

Иван in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
про Warning надо опять же грепать лог и смотреть что в select * from system.replication_queue на всех репликах, возможно некоторые реплики не могут достучаться до некоторых реплик
Репликация работает точно, иногда разве что задерживаться может немного из-за нескольких неудачных таблиц
источник

И

Иван in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
про Warning надо опять же грепать лог и смотреть что в select * from system.replication_queue на всех репликах, возможно некоторые реплики не могут достучаться до некоторых реплик
<Warning> aaa.my_table (ReplicatedMergeTreePartCheckThread): Checking part 202006_2186437_2195108_1948
<Warning> aaa.my_table (ReplicatedMergeTreePartCheckThread): Checking if anyone has a part covering 202006_2186437_2195108_1948.
<Warning> aaa.my_table (ReplicatedMergeTreePartCheckThread): Found parts with the same min block and with the same max block as the missing part 202006_2186437_2195108_1948. Hoping that it will eventually appear as a result of a merge.
источник

D

Dj in ClickHouse не тормозит
@den_crane я тут расчехляю ишшю-мёт в своих записях старых, вам вопрос, на partition pruning by expression (хэш партишнинг, все дела) - ишшю ещё нет?
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Dj
@den_crane я тут расчехляю ишшю-мёт в своих записях старых, вам вопрос, на partition pruning by expression (хэш партишнинг, все дела) - ишшю ещё нет?
источник