Size: a a a

ClickHouse не тормозит

2021 January 18

K

KiLEX 萊赫 in ClickHouse не тормозит
это правдивее и проще
источник

AG

Andrey Grigorian in ClickHouse не тормозит
Здравствуйте, коллеги. Нужна помощь с добавлением индекса.

clh01 :) alter table traffic add index packetDate_ packetDate type minmax granularity 8192

ALTER TABLE traffic
   ADD INDEX packetDate_ packetDate TYPE minmax GRANULARITY 8192


Query id: 2e43efe9-d10a-4720-862a-6a529b9ddd53

Ok.

0 rows in set. Elapsed: 0.022 sec.

clh01 :) alter table traffic materialize index packetDate_

ALTER TABLE traffic
   MATERIALIZE INDEX packetDate_


Query id: 33c7de4e-b068-4b41-99e2-88afb045d4ca

Ok.

0 rows in set. Elapsed: 0.013 sec.

clh01 :) optimize table traffic final

OPTIMIZE TABLE traffic FINAL

Query id: cf81bec4-650d-4150-801b-cc4f4d306cba

Timeout exceeded while receiving data from server. Waited for 300 seconds, timeout is 300 seconds.
Cancelling query.
Ok.
Query was cancelled.

0 rows in set. Elapsed: 3431.730 sec.
источник

I

Ivan in ClickHouse не тормозит
Ну у клинтов есть обращения, у них не всегда пишется id, тк в обращение может быть через Ватсап, Телегу итд. В Табло есть дашборд в разных разрезах с кол-вом обращений. Пока ничего лучше что бы увидеть по дням кол-во обращений/активных продавцов не придумали)
источник

K

KiLEX 萊赫 in ClickHouse не тормозит
Ivan
Ну у клинтов есть обращения, у них не всегда пишется id, тк в обращение может быть через Ватсап, Телегу итд. В Табло есть дашборд в разных разрезах с кол-вом обращений. Пока ничего лучше что бы увидеть по дням кол-во обращений/активных продавцов не придумали)
не увидел ответа как двухнедельный онлайн для каждого ид решает этот вопрос. даже наоборот ощущение что значения будут сильно завышены
источник

K

KiLEX 萊赫 in ClickHouse не тормозит
в общем я думаю надо задачу более полно сформулировать, причем еще на этапе бизнес аналитики.
а если то как понял - проще всего кодом пробежаться и для каждого дня запрос выполнить.
источник

I

Ivan in ClickHouse не тормозит
KiLEX 萊赫
не увидел ответа как двухнедельный онлайн для каждого ид решает этот вопрос. даже наоборот ощущение что значения будут сильно завышены
Ну типо если он 2 недели не заходил, то наврятли это он писал в поддержку. Короч просто метод узнать тех кто пользуется и щас когда их кол-во как и обращений будет расти, увидеть не полетит ли их отношение. Но это не моя идея, я полностью согласен что варик так себе)
источник

M

Mishanya in ClickHouse не тормозит
Ivan
Ну типо если он 2 недели не заходил, то наврятли это он писал в поддержку. Короч просто метод узнать тех кто пользуется и щас когда их кол-во как и обращений будет расти, увидеть не полетит ли их отношение. Но это не моя идея, я полностью согласен что варик так себе)
Ну выберете всех юзеров начиная now() - interval 2 weeks
источник

ИМ

Илья Максимов... in ClickHouse не тормозит
Может ли при проставленном insert_distributed_sync = 1 вообще существовать отставания реплик? Если во время вставки через clickhouse-client идёт сохранение на все реплики, то данные гарантировано записаны и отставания друг от друга нет. Я прав или я прав?
источник

k

kilopixel in ClickHouse не тормозит
Привет. Подскажите, как корректно удалить storage policies? Если убрать упоминания из конфига, то они остаются в system.storage_policies
источник

VM

Vladimir Mihailenco in ClickHouse не тормозит
kilopixel
Привет. Подскажите, как корректно удалить storage policies? Если убрать упоминания из конфига, то они остаются в system.storage_policies
full restart сделать и все пройдет
источник

k

kilopixel in ClickHouse не тормозит
Понял, спасибо.
источник

K

KirillReal in ClickHouse не тормозит
Mishanya
я думаю, что нужно создавать две таблицы с разными коннекшенами
так будет более верно на мой взгляд, тк если чето упадет на первой, то весь консюм не стопнется
Для меня это не очень опция, так как я перевожу сервис с питона на C# и хочу, чтобы два сервиса некоторое время писали в одну таблицу, чтобы не потерять данные
Можно ли как-то так сделать?
источник

M

Mishanya in ClickHouse не тормозит
KirillReal
Для меня это не очень опция, так как я перевожу сервис с питона на C# и хочу, чтобы два сервиса некоторое время писали в одну таблицу, чтобы не потерять данные
Можно ли как-то так сделать?
Так они будут продолжать писать в одну таблицу
Вы создадите две Кафка таблицы, потом два MV, которые пишут в нужную таблицу
источник

M

Mishanya in ClickHouse не тормозит
Я бы так делал
источник

K

KiLEX 萊赫 in ClickHouse не тормозит
Вопрос по движкам компрессии

Delta и DoubleDelta - насколько эффективны для автоинкремент UInt32 колонок с негарантированной последовательностью вставки? Насколько замедляет выборку(расчет) по этим полям.?
источник

K

KiLEX 萊赫 in ClickHouse не тормозит
выходит так что это самые жирные поля тк значения в них уникальны
источник

O

Oleg Bazdyrev in ClickHouse не тормозит
Привет
Запрос create table on cluster при поломанности каких-то машин выполнится или зафейлится?
источник

ИМ

Илья Максимов... in ClickHouse не тормозит
На починенных выполнится, на сломанных нет)
источник

A

Anδrew in ClickHouse не тормозит
Подскажите, что означает TRACKING ONLY и NO LIMITS в выражении для квот? https://clickhouse.tech/docs/ru/sql-reference/statements/create/quota/
источник

VN

Viacheslav Nefedov in ClickHouse не тормозит
Давид Авагимян
Есть самописная DMP для внутренних нужд компании и сейчас стоит задача по  формированию аттрибутов профилй. Решили взять кх для сборки и обработки сырых данных ( опыта в этом большого нет). В сырые данные сохраняются title и url запросов и куча других полей.  Пока работа идет с title и url полями, по ним формируются правила примера если title содержит "нужный текст"  то такой запрос относится к аттрибуту под id 400 ( к примеру). Получается по факту пример запроса такой
select uid, positionCaseInsensitiveUTF8(ref, 'https://example.ru') != 0  OR positionCaseInsensitiveUTF8(title, 'Кулинария') != 0  OR positionCaseInsensitiveUTF8(title, 'Рецепт этого блюда') != 0 OR positionCaseInsensitiveUTF8(title, 'Кулинарный рецепт') != 0 as "440" from raw_data where "440" = 1;
источник