Size: a a a

ClickHouse не тормозит

2020 July 28

КТ

Константин Трофимов... in ClickHouse не тормозит
Если таблица всего 3.7Гб и к тому же она одна, ещё можно просто смувить в сторонку данные, почистить metadata/database/*, затем зукипер, затем создать по новой и запихать в detached папку таблицы и приатачить по новой, ну если вдруг не дай боже не только эти метаданные повреждены
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Кстати если выключились 2 из 3 нод зукипера, то одна оставшаяся должна упасть , у нее нет кворума.
источник

E

Eugeny in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
в config.xml в секцию merge_tree enable_mixed_granularity_parts=1
Странно, но не помогло. Конфиг превратился в preprocessed, секция merge_tree теперь ввыглядит вот так:

    <merge_tree>
       <max_suspicious_broken_parts>5</max_suspicious_broken_parts>
       <enable_mixed_granularity_parts>1</enable_mixed_granularity_parts>
   </merge_tree>


Но ошибка точно та же
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Eugeny
Странно, но не помогло. Конфиг превратился в preprocessed, секция merge_tree теперь ввыглядит вот так:

    <merge_tree>
       <max_suspicious_broken_parts>5</max_suspicious_broken_parts>
       <enable_mixed_granularity_parts>1</enable_mixed_granularity_parts>
   </merge_tree>


Но ошибка точно та же
20.5.3 тоже не стартует все еще?

https://github.com/ClickHouse/ClickHouse/issues/10098
источник

П

Павел Максимов... in ClickHouse не тормозит
Добрый день. Копирую данные из одной таблицы в другую через select *
и за 3 даты, данные по кол-ву строк не совпадают, повторное копирование не помогает, результат один и тот же, по кол-ву строк.
В чем причина?
источник

E

Eugeny in ClickHouse не тормозит
Ага! Действительно, на 20.5.2.7 всё заработало. Спасибо большое, обновлю 20.3 до 20.5 и надеюсь проблем больше не будет :)
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Павел Максимов
Добрый день. Копирую данные из одной таблицы в другую через select *
и за 3 даты, данные по кол-ву строк не совпадают, повторное копирование не помогает, результат один и тот же, по кол-ву строк.
В чем причина?
Таблица с движком replacing?
источник

П

Павел Максимов... in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
Таблица с движком replacing?
нет, engine = MergeTree
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Павел Максимов
нет, engine = MergeTree
Покажите запросы которым считаете кол-во и которым копируете
источник

П

Павел Максимов... in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
Покажите запросы которым считаете кол-во и которым копируете
кажись понял в чем причина, сейчас проверю
источник

П

Павел Максимов... in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
Покажите запросы которым считаете кол-во и которым копируете
подтвердилось, ошибка в запросе инсерта. Спасибо, помогли
источник

II

Ilya I. in ClickHouse не тормозит
привет всем.
есть непонятность.
делаем большой запрос (выборка данных юзера за год) к базе кликхауса (версия 20.3.9) с выводом в файл в формате CSV
ресурсов достаточно, но запрос падает ровно через 3 часа
пробовали увеличить connect_timeout и send_timeout - не помогло ни на йоту.
как можно понять, куда еще копать?
источник

E

Eugene in ClickHouse не тормозит
Ilya I.
привет всем.
есть непонятность.
делаем большой запрос (выборка данных юзера за год) к базе кликхауса (версия 20.3.9) с выводом в файл в формате CSV
ресурсов достаточно, но запрос падает ровно через 3 часа
пробовали увеличить connect_timeout и send_timeout - не помогло ни на йоту.
как можно понять, куда еще копать?
Серверные логи копать можно
источник

S

Slach in ClickHouse не тормозит
Ilya I.
привет всем.
есть непонятность.
делаем большой запрос (выборка данных юзера за год) к базе кликхауса (версия 20.3.9) с выводом в файл в формате CSV
ресурсов достаточно, но запрос падает ровно через 3 часа
пробовали увеличить connect_timeout и send_timeout - не помогло ни на йоту.
как можно понять, куда еще копать?
в system.query_log
посмотрите почему query упала
источник

II

Ilya I. in ClickHouse не тормозит
спасибо, копнем
источник

DC

Denny Crane (I don't... in ClickHouse не тормозит
Ilya I.
привет всем.
есть непонятность.
делаем большой запрос (выборка данных юзера за год) к базе кликхауса (версия 20.3.9) с выводом в файл в формате CSV
ресурсов достаточно, но запрос падает ровно через 3 часа
пробовали увеличить connect_timeout и send_timeout - не помогло ни на йоту.
как можно понять, куда еще копать?
линукс tcp socket ? Данные уже передаются? Запрос внутри сервера или по сети? Сообщение у клиента какое? Keep-alive настроен?
источник

II

Ilya I. in ClickHouse не тормозит
Denny Crane (I don't work at Yandex (never did))
линукс tcp socket ? Данные уже передаются? Запрос внутри сервера или по сети? Сообщение у клиента какое? Keep-alive настроен?
линукс tcp
данные передаются
запрос по сети
сообщение клиента - "Received exception from server (version 20.3.9):
Code: 209. DB::Exception: Received from localhost:9000. DB::Exception: Timeout exceeded while reading from socket (10.128.102.129:9000): while receiving packet from db01:9000: While executing SourceFromInputStream."
EDITED: keepalive таймаут= 3
источник

AK

Alexander Kononov in ClickHouse не тормозит
в сообщении написано про read timeout а вы connect и send крутите
источник

GZ

Galym Zharyssov in ClickHouse не тормозит
Братва, асап, хелп, запись в кх оооочень медленно идет
источник

GZ

Galym Zharyssov in ClickHouse не тормозит
какие настройки можно увеличить, чтобы запись быстрее была?
источник