Size: a a a

ClickHouse не тормозит

2020 June 04

AK

Andrew Kochen in ClickHouse не тормозит
А как работает insert select
он же должен кусками данные вставлять, по ключу сортировки?

У меня на таблице (25 Гб) падает по памяти
 Memory limit (total) exceeded: would use 5.76 GiB (attempt to allocate chunk of 269625952 bytes), maximum: 5.74 GiB)
можно как-то гранулировать разбивку что ли?
КХ версии 19
источник

PR

Pavel Redin in ClickHouse не тормозит
Andrey
в КХ нужно вставлять реже, но большими батчами.
не исследовал каким способом flyway вставляет
источник

s

serge in ClickHouse не тормозит
Всем привет!
У меня есть таблица в которую льются метаданные и для того чтобы получить значения метаданных для каждого объекта я делаю агрегацию (group by).
Как создать словарь из подобной таблицы с учетом того, что значения метаданных могут меняться во времени?
источник

IR

Igor Reva in ClickHouse не тормозит
Данные из старой таблицы archive_table, пытаюсь перенести в новую распределенную таблицу, состоящую из двух шардов (shard_1, shard_2). Движок у таблиц и структура одинаковые.
Распределяются данные при вставки рандомно, веса одинаковые, т.е 50 на 50. На выходе получается что данные из shard_1 и shard_2 весят очень много, столько же как и в старой таблице archive_table, хотя их по отдельности в два раза меньше.  
Получатся такой же объем данных, который занимает в два раза больше места. Запускал команду OPTIMAZE TABLE FINAL; - Размер не изменился.
источник

I

Ivan in ClickHouse не тормозит
serge
Всем привет!
У меня есть таблица в которую льются метаданные и для того чтобы получить значения метаданных для каждого объекта я делаю агрегацию (group by).
Как создать словарь из подобной таблицы с учетом того, что значения метаданных могут меняться во времени?
можно сделать эту таблицу AggregatedMergeTree и еще VIEW в нее, которое будет доаггрегировать данные
источник

I

Ivan in ClickHouse не тормозит
Igor Reva
Данные из старой таблицы archive_table, пытаюсь перенести в новую распределенную таблицу, состоящую из двух шардов (shard_1, shard_2). Движок у таблиц и структура одинаковые.
Распределяются данные при вставки рандомно, веса одинаковые, т.е 50 на 50. На выходе получается что данные из shard_1 и shard_2 весят очень много, столько же как и в старой таблице archive_table, хотя их по отдельности в два раза меньше.  
Получатся такой же объем данных, который занимает в два раза больше места. Запускал команду OPTIMAZE TABLE FINAL; - Размер не изменился.
какие движки у таблиц и как вставляете данные?
источник

Y

Yuri in ClickHouse не тормозит
Oleksii Mylotskyi
Привет, подскажите пожалуйста с чем может быть связано. Пытаюсь сделать ALTER TABLE ... DELETE на таблице 5 млрд записей, получаю в ответ

Received exception from server (version 20.3.5):
Code: 999. DB::Exception: Received from localhost:9000. DB::Exception: Connection loss.

0 rows in set. Elapsed: 0.967 sec.

И в логе вот такая ошибка

zkutil::EphemeralNodeHolder::~EphemeralNodeHolder(): Code: 999, e.displayText() = Coordination::Exception: Session expired (Session expired), Stack trace (when copying this m
essage, always include the lines below):

0. Poco::Exception::Exception(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, int) @ 0x1050f0d0 in /usr/bin/clickhouse
1. DB::Exception::Exception(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, int) @ 0x8f3272d in /usr/bin/clickhouse
2. Coordination::Exception::Exception(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, int, int) @ 0xdee56b8 in /usr/bin/clickhouse
3. Coordination::Exception::Exception(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, int) @ 0xdee5ce2 in /usr/bin/clickhouse
4. ? @ 0xdf19fe1 in /usr/bin/clickhouse
5. Coordination::ZooKeeper::remove(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, int, std::__1::function<void (Coordination::RemoveResponse const&)>) @ 0xdf14662 in /usr/bin/clickhouse
6. zkutil::ZooKeeper::tryRemove(std::__1::basic_string<char, std::__1::char_traits<char>, std::__1::allocator<char> > const&, int) @ 0xdeedffe in /usr/bin/clickhouse
7. std::__1::__shared_ptr_emplace<zkutil::EphemeralNodeHolder, std::__1::allocator<zkutil::EphemeralNodeHolder> >::__on_zero_shared() @ 0x911476e in /usr/bin/clickhouse
8. std::__1::__shared_ptr_emplace<zkutil::LeaderElection, std::__1::allocator<zkutil::LeaderElection> >::__on_zero_shared() @ 0xd7971aa in /usr/bin/clickhouse
9. std::__1::shared_ptr<zkutil::LeaderElection>::~shared_ptr() @ 0xd79a1f2 in /usr/bin/clickhouse
10. DB::StorageReplicatedMergeTree::exitLeaderElection() @ 0xd730387 in /usr/bin/clickhouse
11. DB::ReplicatedMergeTreeRestartingThread::partialShutdown() @ 0xdad9508 in /usr/bin/clickhouse
12. DB::ReplicatedMergeTreeRestartingThread::run() @ 0xdadee43 in /usr/bin/clickhouse
13. DB::BackgroundSchedulePoolTaskInfo::execute() @ 0xcfe5815 in /usr/bin/clickhouse
14. DB::BackgroundSchedulePool::threadFunction() @ 0xcfe5e32 in /usr/bin/clickhouse

а в ZOOKEEPER логе такой Exception:

java.io.IOException: Len error 1336468
 at org.apache.zookeeper.server.NIOServerCnxn.readLength(NIOServerCnxn.java:541)
 at org.apache.zookeeper.server.NIOServerCnxn.doIO(NIOServerCnxn.java:332)
 at org.apache.zookeeper.server.NIOServerCnxnFactory$IOWorkRequest.doWork(NIOServerCnxnFactory.java:522)
 at org.apache.zookeeper.server.WorkerService$ScheduledWorkRequest.run(WorkerService.java:154)
 at java.base/java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1128)
 at java.base/java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:628)
 at java.base/java.lang.Thread.run(Thread.java:834)

И такое происходит только с одной таблицей, другие две прошли без проблем, и по объему они не на много меньше.
привет, удалось разобраться?
у нас такая-же проблема, Len error в логах зукипера
источник

IR

Igor Reva in ClickHouse не тормозит
Ivan
какие движки у таблиц и как вставляете данные?
1. MergeTree
2. INSERT INTO распределенная таблица SELECT * FROM archive_table
источник

I

Ivan in ClickHouse не тормозит
Igor Reva
1. MergeTree
2. INSERT INTO распределенная таблица SELECT * FROM archive_table
а старая таблица не реплицированная?
источник

IR

Igor Reva in ClickHouse не тормозит
нет
источник

I

Ivan in ClickHouse не тормозит
у distributed таблицы задавали ключ шардирования?
источник

IR

Igor Reva in ClickHouse не тормозит
да, rand()
источник

I

Ivan in ClickHouse не тормозит
🤔
источник

OM

Oleksii Mylotskyi in ClickHouse не тормозит
Yuri
привет, удалось разобраться?
у нас такая-же проблема, Len error в логах зукипера
Нет, увы 🙁 Я просто перенес данные в другую таблицу снес ту по которой была эта ошибка. Обновил версию ZK кластера до послденей, и КХ до последней. И заново перезалил данные в новосозданную таблицу. и такая ошибка больше не повторялась. Как то так…
источник

I

Ivan in ClickHouse не тормозит
@iureva мб это норм
возможно при бОльшем кол-ве данных в одном месте клик просто сжал их эффективнее
источник

DT

Dmitry Titov in ClickHouse не тормозит
Igor Reva
Данные из старой таблицы archive_table, пытаюсь перенести в новую распределенную таблицу, состоящую из двух шардов (shard_1, shard_2). Движок у таблиц и структура одинаковые.
Распределяются данные при вставки рандомно, веса одинаковые, т.е 50 на 50. На выходе получается что данные из shard_1 и shard_2 весят очень много, столько же как и в старой таблице archive_table, хотя их по отдельности в два раза меньше.  
Получатся такой же объем данных, который занимает в два раза больше места. Запускал команду OPTIMAZE TABLE FINAL; - Размер не изменился.
тк рандомное распределение, то мог ухудшится коэффициент сжатия
источник

I

Ivan in ClickHouse не тормозит
пробовали OPTIMIZE TABLE table ON CLUSTER cluster PARTITION '2020-03-01' FINAL? видел, что оптимизацию пробовали, мб с явным указанием партиции поможет
источник

I

Ivan in ClickHouse не тормозит
у нас был кейс, когда после оптимизации партиции немножко лучше ужалось все
источник

IR

Igor Reva in ClickHouse не тормозит
Ivan
@iureva мб это норм
возможно при бОльшем кол-ве данных в одном месте клик просто сжал их эффективнее
Я обратил внимание, что если переносить данные по одной партиции, то занимаемый размер остается в норме. А когда все сразу, то начинается такая проблема.
источник

IR

Igor Reva in ClickHouse не тормозит
Dmitry Titov
тк рандомное распределение, то мог ухудшится коэффициент сжатия
а можно это как-то оптимизировать ?
источник