Size: a a a

ClickHouse не тормозит

2021 March 04

S

Slach in ClickHouse не тормозит
Alexei Generalov
Подскажите единицу измерения max_server_memory_usage ? Байты?
да
источник

AS

Alex Soldatov in ClickHouse не тормозит
Slach
хм, вы clickhouse-backup restore делаете при работающем clickhouse-server ?
Да, так
источник

OG

Oleksiy Golovko in ClickHouse не тормозит
Подскажите, пожалуйста, что сломано, если в логе много таких сообщений: Table system.errors doesn't exist. (version 20.10.2.20 (official build))?
источник

DC

Denny Crane [not a Y... in ClickHouse не тормозит
Oleksiy Golovko
Подскажите, пожалуйста, что сломано, если в логе много таких сообщений: Table system.errors doesn't exist. (version 20.10.2.20 (official build))?
она вообще была в 20.10 ?
ее добавили вроде в 20.11
а кто ее читает? внешний мониторинтг?
источник

DC

Denny Crane [not a Y... in ClickHouse не тормозит
Konstantin Ilchenko
6 шардов

INSERT INTO дистрибьютед1
SELECT FROM дистрибьютед2
JOIN дистрибьютед3
JOIN дистрибьютед4
и что все время ошибка на этом запросе или иногда?
источник

EP

Evgen Pr in ClickHouse не тормозит
подскажите плз, есть таблица ts, data, в нее нужно залить данные из DataFrame,  в котором тоже ts, data, но только те для которых нет ts, как это проще всего сделать
источник

D

Dmutruu in ClickHouse не тормозит
Dmutruu
все равно также, нужна разница в секундах, а тут не понятно, что возвращается
источник

P

Pavel Kozhuhar in ClickHouse не тормозит
Всем привет.
Такая ситуация, кликхаус очень и очень медленно инсертит данные, сейчас он добавляет в таблицу данные, которые туда инсертили еще вчера.
Кластер кликхауса, ReplicatedReplacingMergeTree таблицы, 2 шарда, по 2 ноды в каждой, инсертим записи через роутер. show processlist пустой.
Подскажите плиз, почему такое может быть, и что с этим можно сделать?
источник

S

Slach in ClickHouse не тормозит
Alex Soldatov
Да, так
не правильно
у вас background merge на текущем сервере запущеном сервере который мержит парты между собой
и потом вы делаете непонятно откуда взявшиеся restore которые тупо качают файлы в папку /var/lib/clickhouse/data
и потом делают ATTACH
естетсвенно у вас данные задваиваются
у вас часть данных старых в новых партах
и задваивается из тех что не смержены из старых партов
источник

S

Slach in ClickHouse не тормозит
Pavel Kozhuhar
Всем привет.
Такая ситуация, кликхаус очень и очень медленно инсертит данные, сейчас он добавляет в таблицу данные, которые туда инсертили еще вчера.
Кластер кликхауса, ReplicatedReplacingMergeTree таблицы, 2 шарда, по 2 ноды в каждой, инсертим записи через роутер. show processlist пустой.
Подскажите плиз, почему такое может быть, и что с этим можно сделать?
что такое "роутер"? chproxy ?

как данные вставляете? в каком формате? какой размер батча во вставке? сколько одновременных вставок?
источник

YV

Yuri Velgosha in ClickHouse не тормозит
Pavel Kozhuhar
Всем привет.
Такая ситуация, кликхаус очень и очень медленно инсертит данные, сейчас он добавляет в таблицу данные, которые туда инсертили еще вчера.
Кластер кликхауса, ReplicatedReplacingMergeTree таблицы, 2 шарда, по 2 ноды в каждой, инсертим записи через роутер. show processlist пустой.
Подскажите плиз, почему такое может быть, и что с этим можно сделать?
Логи смотрели? У нас было подобное, когда фигачили в ReplicatedMergeTree клики в реалтайме - создавалось овердохера партов, которые потом медленно и печально в фоне мержились. В итоге добились как раз искомого отставания в сутки :)
Переделали логику на вставку через Buffer-таблицу - стало збс.
источник

AS

Alex Soldatov in ClickHouse не тормозит
Slach
не правильно
у вас background merge на текущем сервере запущеном сервере который мержит парты между собой
и потом вы делаете непонятно откуда взявшиеся restore которые тупо качают файлы в папку /var/lib/clickhouse/data
и потом делают ATTACH
естетсвенно у вас данные задваиваются
у вас часть данных старых в новых партах
и задваивается из тех что не смержены из старых партов
спасибо
как в таком случае правильно накатывать данные?
может просто делать перед каждым рестором drop database?
только что это затестили - процесс практически моментальный (на 5тб данных)
источник

AS

Alex Soldatov in ClickHouse не тормозит
Alex Soldatov
спасибо
как в таком случае правильно накатывать данные?
может просто делать перед каждым рестором drop database?
только что это затестили - процесс практически моментальный (на 5тб данных)
сервер не в продакшене, а больше как тестовый с копией данных из прода, поэтому краткий простой на время пока БД будет отсутвовать не критичен
источник

S

Slach in ClickHouse не тормозит
Alex Soldatov
спасибо
как в таком случае правильно накатывать данные?
может просто делать перед каждым рестором drop database?
только что это затестили - процесс практически моментальный (на 5тб данных)
да, restore лучше делать в пустую базу
источник

S

Slach in ClickHouse не тормозит
Alex Soldatov
спасибо
как в таком случае правильно накатывать данные?
может просто делать перед каждым рестором drop database?
только что это затестили - процесс практически моментальный (на 5тб данных)
еще тут можно спросить что нибудь
https://t.me/clickhousebackup
источник

D

Dmutruu in ClickHouse не тормозит
Всем привет, пытаюсь вычесть одну колонку из другой для получения значений в секундах, но получается ерунда какая то с аномальными значениями
источник

D

Dmutruu in ClickHouse не тормозит
источник

AS

Alex Soldatov in ClickHouse не тормозит
Slach
да, restore лучше делать в пустую базу
спасибо
так и будем делать
источник

D

Dmutruu in ClickHouse не тормозит
тип данных у столбцов
источник

P

Pavel Kozhuhar in ClickHouse не тормозит
Slach
что такое "роутер"? chproxy ?

как данные вставляете? в каком формате? какой размер батча во вставке? сколько одновременных вставок?
на роуте distributed таблица, инсертим данные через нее.
данные вставляем сначала в редис, оттуда воркер их выгребает, делает их них один большой инсерт, и шлет его в кх. количество записей в инсерте — до 10к, но, зачастую их гораздо меньше(до 100).
одновременных вставок до 5 в секунду.
проблема в том что до этого было все ок, никто ничего не менял, т.е. по такой схеме оно работало давно и нормально
источник