Size: a a a

Ceph — русскоговорящее сообщество

2021 October 14

П

Павел in Ceph — русскоговорящее сообщество
да, почему нет, вариант, но не хотелось бы конечно ради подобных сервисов держать целые отдельные сервера.
А в чем еще может быть узкое место? ЦПУ 2 x Intel Xeon E5-2640 v4 @ 2.40GHz, сеть 10G на Intel X520-DA2
источник

RM

Roman Mizgirev in Ceph — русскоговорящее сообщество
Рейд на чем ?
Mdraid или контроллер типа perc730 ?
Дисков сколько т.к. из описания не понятно какая именно модификация 730 шасси
источник

П

Павел in Ceph — русскоговорящее сообщество
Контроллер PERC H730P Mini, 16 дисков участвуют в RAID50
Size 8935.50 GB
Span Count 4
Block Size 512 bytes
Bus Protocol SATA
Media Type SSD
Read Policy No Read Ahead
Write Policy Write Back
Stripe Size 64K
Disk Cache Policy Default
источник

Е

Евгений [BG] in Ceph — русскоговорящее сообщество
Заббикс наверное флэшит на каждый чих, вот оно и тащится. Наверное, если делать dd или fio с direct, получатся те же 50М/s
источник

AZ

Alexey Zakharov in Ceph — русскоговорящее сообщество
Всегда было интересно, а что, если в такой ситуации включить планировщик bfq, хоть и речь про ssd
источник

Е

Евгений [BG] in Ceph — русскоговорящее сообщество
по стэковерфлоу ходит байка, что если внутри виртуалки планировщик none, а cнаружи bfq, все ускорится
источник

AZ

Alexey Zakharov in Ceph — русскоговорящее сообщество
:) ну внутри виртуалок нет смысл в чем-то другом, кроме none. А вот авторы bfq заявляют же, что он как раз для ситуаций, когда есть постоянно жрущие диск процессы и периодически жрущие, и что он якобы хитро приоритезирует этих периодических, чтобы у них латенси падал
источник

Е

Евгений [BG] in Ceph — русскоговорящее сообщество
если ему прилетает FLUSH, на этом его полномочия как бы уже все - он обязан записать
источник

AZ

Alexey Zakharov in Ceph — русскоговорящее сообщество
Но че-то у меня небыло возможности прям проверить такой кейс на практике, как и желания городить сложную лабу
источник

AZ

Alexey Zakharov in Ceph — русскоговорящее сообщество
Да, с флашем никуда не деться
источник

П

Павел in Ceph — русскоговорящее сообщество
политику write cache на контроллере есть смысл менять в этом случае?
источник

Е

Евгений [BG] in Ceph — русскоговорящее сообщество
сначала хорошо бы отрезать qemu и его друзей
источник

Е

Евгений [BG] in Ceph — русскоговорящее сообщество
так-то можно в нем бахнуть cache=unsafe и ждать, когда попадает с потерей базы
источник

AN

Andrey Nemysskiy in Ceph — русскоговорящее сообщество
Если в Заббиксе мониторятся ежесекундно какие-то сервисы и их много, то чего хотеть-то? Заббикс отмониторил. Чего он там получил - в базу залил. Все как просили. Если счетчиков тыщи, получите тыщу INSERT-ов в базу часто-часто.

Подумайте. Надо ли дрочить сервисы так часто? Подумайте, может быть базу куда пишет Заббикс надо оптимизировать?
источник

A

Alexander M in Ceph — русскоговорящее сообщество
а откуда понимание пиковости момента? судя по цифрам IO запас для роста ещё есть. Есть возможность iostat с latency снять?
источник

I

Igor in Ceph — русскоговорящее сообщество
это зависит от задач внутри виртуалки, ибо именно на них будет влиять планирование I/O
источник

PA

Petr Antonov in Ceph — русскоговорящее сообщество
Тут проблема не в дисках, а в заёбиксе. С ним в первую очередь разбираться нужно.
источник

П

Павел in Ceph — русскоговорящее сообщество
ок, спасибо всем большое!
источник

AZ

Alexey Zakharov in Ceph — русскоговорящее сообщество
Это понятно, я скорее про то, что прям такого выраженного эффекта мне не довелось наблюдать:) было бы круто где-то это на реальной нагрузке увидеть
источник

I

Igor in Ceph — русскоговорящее сообщество
это просто получается иерархическое планирование, в случае с none один её уровень сокращается и всё — поэтому эта настройка вовсе не универсальное правило.
источник