Size: a a a

Ceph — русскоговорящее сообщество

2021 March 03

D

Denis in Ceph — русскоговорящее сообщество
Павел Савин
2 cpu, 28 ядер.
мониторы и mgrы на них же.
128 гиг памяти
Сетевухи mellanox lx-4 2x10GE LACP.(cluster netowrk) 2x10GE (client)

на ssd дисках, где я тестировал 1 пул minsize 2 , 3replica. + еще несколько не используются..
ну еще несколько пулов на hdd..
Постоянная нагрузка примерно 300op/s 8MB/s на hdd пул.
pools:   10 pools, 1993 pgs
   objects: 721.60k objects, 2.7 TiB
   usage:   13 TiB used, 229 TiB / 242 TiB avail
   pgs:     1993 active+clean

wal у меня 2 GB а rocks 300GB(, на тех же ssd.) max_bytes_for_level_base=256MB.
мне кажется при таких параметрах системы, и при таком количестве данных, 30 секундный фриз это не нормально.
вообще процесс пиринга я понимаю весьма поверхностно, вероятно Виталий мог бы более детально прокоментировать, но при синхронизации pg_log и при сравнении epoch и состояния групп, насколько я понимаю медленные диски не должны вызывать задержку (именно во время пирринга).
У вас пока 30 секунд фриз - что ceph -s пишет про PG?
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Alexander mamahtehok
ни чего не менял, 300 не выделял сижу кайфую )
Ебать ты бесстрашный
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Denis
Вам несказанно повезло! Но читать нужно внимательнее, и не делать пренебрежительных коментариев :)
действительно, повезло 700 раз ))) я сделал ровно тот коментарий который хотел )
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Мне кажется или @Stormeez троллит
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
и кстати да уровни 1 10 100 ни разу не спасут от спиловера )))
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Александр 🐎
Ебать ты бесстрашный
да ваще ни разу )
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Александр 🐎
Мне кажется или @Stormeez троллит
мей би )
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
пойду поработаю тогда )
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Alexander mamahtehok
да ваще ни разу )
В инете кто-то не прав и ты с ним споришь)
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Александр 🐎
В инете кто-то не прав и ты с ним споришь)
Где ж я спорю то )))
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
я просто показываю факты )
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Denis
мне кажется при таких параметрах системы, и при таком количестве данных, 30 секундный фриз это не нормально.
вообще процесс пиринга я понимаю весьма поверхностно, вероятно Виталий мог бы более детально прокоментировать, но при синхронизации pg_log и при сравнении epoch и состояния групп, насколько я понимаю медленные диски не должны вызывать задержку (именно во время пирринга).
У вас пока 30 секунд фриз - что ceph -s пишет про PG?
ceph -s кстати ваще ничо не будет писать, ведь люди отключают дебаг
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Хорошо что я не пользуюсь блевстором
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
источник

D

Denis in Ceph — русскоговорящее сообщество
Павел Савин
2 cpu, 28 ядер.
мониторы и mgrы на них же.
128 гиг памяти
Сетевухи mellanox lx-4 2x10GE LACP.(cluster netowrk) 2x10GE (client)

на ssd дисках, где я тестировал 1 пул minsize 2 , 3replica. + еще несколько не используются..
ну еще несколько пулов на hdd..
Постоянная нагрузка примерно 300op/s 8MB/s на hdd пул.
pools:   10 pools, 1993 pgs
   objects: 721.60k objects, 2.7 TiB
   usage:   13 TiB used, 229 TiB / 242 TiB avail
   pgs:     1993 active+clean

wal у меня 2 GB а rocks 300GB(, на тех же ssd.) max_bytes_for_level_base=256MB.
например, в небольшом кластере:

 data:
   pools:   1 pools, 2048 pgs
   objects: 27.57M objects, 70 TiB
   usage:   224 TiB used, 123 TiB / 347 TiB avail
   pgs:     2048 active+clean

заполнение ОСД в нем примерно 60-70%, но это all-flash.

при рестарте шесть ОСД заходят обратно в кластер за 10-15 секунд, при этом IO не проседает, постоянная средняя:


 io:
   client:   716 MiB/s rd, 472 MiB/s wr, 11.94k op/s rd, 8.79k op/s wr

в пике бывает гораздо больше.

Кластер под виртуальными машинами через iscsi, т.е. таймауты очень ощутимы, особенно для БД (около 100-150 вм под БД)

процессоры 4216 - т.е. примерно идентичны вашим
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Denis
например, в небольшом кластере:

 data:
   pools:   1 pools, 2048 pgs
   objects: 27.57M objects, 70 TiB
   usage:   224 TiB used, 123 TiB / 347 TiB avail
   pgs:     2048 active+clean

заполнение ОСД в нем примерно 60-70%, но это all-flash.

при рестарте шесть ОСД заходят обратно в кластер за 10-15 секунд, при этом IO не проседает, постоянная средняя:


 io:
   client:   716 MiB/s rd, 472 MiB/s wr, 11.94k op/s rd, 8.79k op/s wr

в пике бывает гораздо больше.

Кластер под виртуальными машинами через iscsi, т.е. таймауты очень ощутимы, особенно для БД (около 100-150 вм под БД)

процессоры 4216 - т.е. примерно идентичны вашим
Я уже нописал, на данной платформе такое явление я и сам наблюдал, хотя у меня файлстор
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
И это ни как не зависит от настроек
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Имхо
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Вопрос скорее к платформе самой
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Потому что оллфлеш в нодах по 7 осд рестартится тоже секунд 10-15
источник