Size: a a a

ClickHouse не тормозит

2020 August 22

A

Artem in ClickHouse не тормозит
Это бесплатный сервак от Гугла. Для экспериментов пока хватает.
источник

l

lnuynxa in ClickHouse не тормозит
Для кликхауса это прям мало.
источник

A

Artem in ClickHouse не тормозит
Да, потом можно будет проапгрейдить, но зато на нем сразу видны потенциальные неоптимальности.
источник

l

lnuynxa in ClickHouse не тормозит
Ну окей,
в общем другая идея
делать GROUP BY  f1, f2, intDiv(myfield,1000).
Потом с помощью функций высшего порядка удалять все не граничные значения и так повторять до результата через подзапросы
источник

A

Artem in ClickHouse не тормозит
Вспомнил ещё runningDifference(), которую уже использовал когда-то. Это, кажется, то, что нужно.
источник
2020 August 23

ДБ

Дмитро Бур'янов... in ClickHouse не тормозит
всем привет
я только присматриваюсь к ClickHouse, прошу не пинать
что у меня есть:
redis в которьій я пишу ключи в разньіе базьі на одном сервере и ставлю ттл, ттл - некая привязка ко времени
хочу переехать на ClickHouse, но почитав я понял, что єто скорее база боольше для записи, чем для чтения.
сейчас у меня происходит так:
* некая авторизация пользователя путем внесения ключа с ттл или обновление ттл - єто операции записи - 1kqps
* проверка наличия ключа(некая аутентификация пользователя) - єто чтение из базьі - 4kqps
зачем переезжать на ClickHouse с Redis - хранить историю, логировать все

Стоит ли заморачиватся с переездом или смотреть историю по логам сервера?

Спасибо
источник

T

Tim in ClickHouse не тормозит
Кликхаус подразумевает что вам для ответа на запрос нужно несколько миллионов строк обработать
источник

pk

papa karlo in ClickHouse не тормозит
а, хранить историю. ну хранить историю можно. а k-v лучше оставить где был. только со вставками по одной строке надо будет что-то порешать.
источник

ДБ

Дмитро Бур'янов... in ClickHouse не тормозит
спасибо
источник

AS

Andrey Senko in ClickHouse не тормозит
Дмитро Бур'янов
всем привет
я только присматриваюсь к ClickHouse, прошу не пинать
что у меня есть:
redis в которьій я пишу ключи в разньіе базьі на одном сервере и ставлю ттл, ттл - некая привязка ко времени
хочу переехать на ClickHouse, но почитав я понял, что єто скорее база боольше для записи, чем для чтения.
сейчас у меня происходит так:
* некая авторизация пользователя путем внесения ключа с ттл или обновление ттл - єто операции записи - 1kqps
* проверка наличия ключа(некая аутентификация пользователя) - єто чтение из базьі - 4kqps
зачем переезжать на ClickHouse с Redis - хранить историю, логировать все

Стоит ли заморачиватся с переездом или смотреть историю по логам сервера?

Спасибо
Кликхаус скорее про аналитические запросы
источник

MK

Matwey Kornilov in ClickHouse не тормозит
А можно мне сделать чтобы GROUP BY на огромных таблицах не ел оперативку как не в себя?
источник

IB

Igor Baliuk in ClickHouse не тормозит
😉
источник

D

Dj in ClickHouse не тормозит
Matwey Kornilov
А можно мне сделать чтобы GROUP BY на огромных таблицах не ел оперативку как не в себя?
можно max_bytes_before_external_group_by
источник

MK

Matwey Kornilov in ClickHouse не тормозит
Dj
можно max_bytes_before_external_group_by
Сложность по памяти всё-равно останется линейной относительно числа записей.
источник

D

Dj in ClickHouse не тормозит
Matwey Kornilov
Сложность по памяти всё-равно останется линейной относительно числа записей.
Вы хотите делать групбай не используя память?
Вроде была оптимизация груп бай по индексу.
Если хотите более конкретный ответ, задайте более конкретный вопрос...
источник

MK

Matwey Kornilov in ClickHouse не тормозит
Matwey Kornilov
А можно мне сделать чтобы GROUP BY на огромных таблицах не ел оперативку как не в себя?
Ну вот, сообщение на которое я отвечал удалили и стало не так смешно.
источник

MK

Matwey Kornilov in ClickHouse не тормозит
Dj
Вы хотите делать групбай не используя память?
Вроде была оптимизация груп бай по индексу.
Если хотите более конкретный ответ, задайте более конкретный вопрос...
Проблемы возникают уже после max_bytes_before_external_group_by, когда нужно слить воедино все сброшенные на диск двухуровневые хеш-таблицы. Что само по себе может и интересная задача, но решается она тем, что в память читается 1/256 от каждой сброшенной хеш-таблицы для каждого сливающего потока. Т.е. N/256 записей, где N размер исходной таблицы.
источник

SK

Sergey Kolomiychuk in ClickHouse не тормозит
Кто-нибудь может помочь спроектировать БД на основе кликхауса? Есть исходные данные 3 таблицы, понимание вьюшек которые должны быть на выходе. Оплачу сколько скажите) или порекомендовать кого-то) спасибо
источник

D

Dj in ClickHouse не тормозит
Matwey Kornilov
Проблемы возникают уже после max_bytes_before_external_group_by, когда нужно слить воедино все сброшенные на диск двухуровневые хеш-таблицы. Что само по себе может и интересная задача, но решается она тем, что в память читается 1/256 от каждой сброшенной хеш-таблицы для каждого сливающего потока. Т.е. N/256 записей, где N размер исходной таблицы.
ок, уменьшите количество потоков в этой стадии
источник

MK

Matwey Kornilov in ClickHouse не тормозит
Dj
ок, уменьшите количество потоков в этой стадии
ну даже если их уменьшить до одного, всё равно останется 1/256 исходной таблицы
источник