Size: a a a

ClickHouse не тормозит

2021 February 23

MK

Max Khlystov in ClickHouse не тормозит
даже два раза
источник

MK

Max Khlystov in ClickHouse не тормозит
а это безопасно при апгрейде версии не обновлять конфиг до версии пакета?
источник

DT

Dmitry Titov in ClickHouse не тормозит
Max Khlystov
при инсерте падает
2021.02.23 17:14:05.970043 [ 20184 ] {} <Error> StorageRabbitMQ (test): Producer's channel 32 error: connection lost
2021.02.23 17:14:05.970533 [ 20184 ] {} <Error> StorageRabbitMQ (test): Library error report: connection lost


но сообщение все равно публикуется
вы из кх вставляете в реббит?
источник

MK

Max Khlystov in ClickHouse не тормозит
Dmitry Titov
вы из кх вставляете в реббит?
да
источник

DT

Dmitry Titov in ClickHouse не тормозит
Max Khlystov
а это безопасно при апгрейде версии не обновлять конфиг до версии пакета?
Да, но обычно вообще советуем не трогать дефолтный конфига а просто писать все перегрузки сеттингов в /config.d
источник

DT

Dmitry Titov in ClickHouse не тормозит
Сложно сказать, пишите issue на гитхаб, пользователей реббит движка не очень много.
источник

TM

Timur Mukhamet in ClickHouse не тормозит
Есть в кликхаус возможность спарсить json любой глубины вложенности. Сразу говорю, документацию смотрел, просто не хочется костыли писать.
источник

VA

Vasilij Abrosimov in ClickHouse не тормозит
Timur Mukhamet
Есть в кликхаус возможность спарсить json любой глубины вложенности. Сразу говорю, документацию смотрел, просто не хочется костыли писать.
Так почитайте. Там короткий текст и есть несколько важных нюансов:
https://clickhouse.tech/docs/ru/sql-reference/functions/json-functions/
источник

TM

Timur Mukhamet in ClickHouse не тормозит
Вдоль и поперек прочитал, пришел к выводу, что нет. Проблема как раз в этих нюансах.
источник

VA

Vasilij Abrosimov in ClickHouse не тормозит
Ну в общем оно там весьма ограничено, да. Если многомерный json с повторами имён - то увы, надо искать другой подход (парсить вне клика, например)
источник

TM

Timur Mukhamet in ClickHouse не тормозит
Спасибо!
источник

BB

Bral Bral in ClickHouse не тормозит
Добрый вечер. Читаем данные из Кафки , пишем в *mergeTree таблицу . Как результат очень много активных кусков после инсерта, которые со временем (несколько минут) исчезают. Правильным ли подходом будет читать в buffer таблицу ? Смущает ее особенность, когда данные могут потеряться.
источник

DT

Dmitry Titov in ClickHouse не тормозит
Bral Bral
Добрый вечер. Читаем данные из Кафки , пишем в *mergeTree таблицу . Как результат очень много активных кусков после инсерта, которые со временем (несколько минут) исчезают. Правильным ли подходом будет читать в buffer таблицу ? Смущает ее особенность, когда данные могут потеряться.
Очень много это сколько?
что с партиционированием, какой поток данных
источник

BB

Bral Bral in ClickHouse не тормозит
Dmitry Titov
Очень много это сколько?
что с партиционированием, какой поток данных
5-10 тысяч, партиционирования по месяцам. Поток 10-20 мб/с ( сотни тысяч строк) , но читается батчами по 5к, если не ошибаюсь.
источник

DT

Dmitry Titov in ClickHouse не тормозит
Bral Bral
5-10 тысяч, партиционирования по месяцам. Поток 10-20 мб/с ( сотни тысяч строк) , но читается батчами по 5к, если не ошибаюсь.
> , но читается батчами по 5к, если не ошибаюсь.

Это что то неправильное, какая версия кх?
источник

BB

Bral Bral in ClickHouse не тормозит
Dmitry Titov
> , но читается батчами по 5к, если не ошибаюсь.

Это что то неправильное, какая версия кх?
Не совсем понял. Версия декабрьская 2020 или январская, точно не вспомню .
источник

DT

Dmitry Titov in ClickHouse не тормозит
Bral Bral
Не совсем понял. Версия декабрьская 2020 или январская, точно не вспомню .
А какой размер партов который кх создает?
источник

BB

Bral Bral in ClickHouse не тормозит
Dmitry Titov
А какой размер партов который кх создает?
К сожалению , такие подробности не имею возможности уточнить.
источник
2021 February 24

P

Pavel in ClickHouse не тормозит
Bral Bral
Добрый вечер. Читаем данные из Кафки , пишем в *mergeTree таблицу . Как результат очень много активных кусков после инсерта, которые со временем (несколько минут) исчезают. Правильным ли подходом будет читать в buffer таблицу ? Смущает ее особенность, когда данные могут потеряться.
Тоже прочитал про буфер-движок и подумал, что он на уровне кх реализует то, что у нас сейчас наша самописеая приложенька делает: читает кафку, раз в 10 сек скидывает батч по 5-20к записей в кх. Но почитав подробней про buffer, понял, что наше решение огонь))
Ну, а вообще 5-10 тыщ партов это овер дохуя
источник

M

Mishanya in ClickHouse не тормозит
Bral Bral
5-10 тысяч, партиционирования по месяцам. Поток 10-20 мб/с ( сотни тысяч строк) , но читается батчами по 5к, если не ошибаюсь.
настройке в кафка-движке что бы батчи были по 64к
дефолтный сеттинг слишком маленький
источник