Size: a a a

Ceph — русскоговорящее сообщество

2021 March 03

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Павел Савин
3 сервера на платформе supermicro SSG-6019P-ACR12L.
6hdd-14tb + 6ssd 2tb, 18osd hdd+ssd(bcache+wal+db)
36 osd - ssd(по два раздела на каждом)
Cpu intel xeon gold 5120, 2.2hgz
2ssd из 6 эт hhhl?
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Александр 🐎
2ssd из 6 эт hhhl?
источник

t

timureh in Ceph — русскоговорящее сообщество
прошивку обновил)?
источник

t

timureh in Ceph — русскоговорящее сообщество
хотя если больше полугода работает значит не актуально
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Прошивку обновляли, когда собирали серваки..
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Так то к ssd притензий нет, не тормозят и не фризят.
источник

D

Denis in Ceph — русскоговорящее сообщество
Павел Савин
3 сервера на платформе supermicro SSG-6019P-ACR12L.
6hdd-14tb + 6ssd 2tb, 18osd hdd+ssd(bcache+wal+db)
36 osd - ssd(по два раздела на каждом)
Cpu intel xeon gold 5120, 2.2hgz
по одному процессору на сервер?
мониторы на них же?
сетевые карты/пропускная?
кол-во памяти?
сколько пулов и ПГ? пулы 3-way видимо, раз мин-сайз 2?
сколько данных в пулах и есть ли постоянная нагрузка какая-то?

я не работал с bcache, не уверен как это может или не может влиять. А какого размера разделы под rocks/wal, если у вас в 2ТБ пишет rocks/wal от 6 дисков и еще и 2 ОСД на тех же SSD?
источник

D

Denis in Ceph — русскоговорящее сообщество
про разделы под rocks-wal - это вряд ли имеет какое-то отношение к вашим фризам, но имейте в виду что это может убить производительность вашего кластера в будущем :)
дефолты по уровням rocksdb в сефе: 3, 30, 300ГБ, почитайте про rocksdb level compaction. Т.е. часты ситуации, когда под рокс дают, например 100ГБ, а когда база вырастает до 31ГБ она начинает писать в механику в ОСД, потому что рокс не может взять следующий левел - 300ГБ. У вас большие хдд ОСД, рокс могут вырасти за пределы 30ГБ, поэтому советую менять фактор роста, например 1, 10,100ГБ и давать 100+ГБ под разделы
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Denis
по одному процессору на сервер?
мониторы на них же?
сетевые карты/пропускная?
кол-во памяти?
сколько пулов и ПГ? пулы 3-way видимо, раз мин-сайз 2?
сколько данных в пулах и есть ли постоянная нагрузка какая-то?

я не работал с bcache, не уверен как это может или не может влиять. А какого размера разделы под rocks/wal, если у вас в 2ТБ пишет rocks/wal от 6 дисков и еще и 2 ОСД на тех же SSD?
2 cpu, 28 ядер.
мониторы и mgrы на них же.
128 гиг памяти
Сетевухи mellanox lx-4 2x10GE LACP.(cluster netowrk) 2x10GE (client)

на ssd дисках, где я тестировал 1 пул minsize 2 , 3replica. + еще несколько не используются..
ну еще несколько пулов на hdd..
Постоянная нагрузка примерно 300op/s 8MB/s на hdd пул.
pools:   10 pools, 1993 pgs
   objects: 721.60k objects, 2.7 TiB
   usage:   13 TiB used, 229 TiB / 242 TiB avail
   pgs:     1993 active+clean

wal у меня 2 GB а rocks 300GB(, на тех же ssd.) max_bytes_for_level_base=256MB.
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
в пуле на котором я тестировал 64PG, там image 10GB
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Направьте на правильный путь:
следует делать задержку в systemd для запуска osd(чтобы они не все одновременно поднимались) ?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Denis
про разделы под rocks-wal - это вряд ли имеет какое-то отношение к вашим фризам, но имейте в виду что это может убить производительность вашего кластера в будущем :)
дефолты по уровням rocksdb в сефе: 3, 30, 300ГБ, почитайте про rocksdb level compaction. Т.е. часты ситуации, когда под рокс дают, например 100ГБ, а когда база вырастает до 31ГБ она начинает писать в механику в ОСД, потому что рокс не может взять следующий левел - 300ГБ. У вас большие хдд ОСД, рокс могут вырасти за пределы 30ГБ, поэтому советую менять фактор роста, например 1, 10,100ГБ и давать 100+ГБ под разделы
ой ну хавтит уже эти магические циферки носить )))
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
#rocksdb_lvl nau 14.2.16 без тюнинга

первый график - размер раздела DB
второй график сколько занято
третитй сколько занято на медленном драйве
четвертый интенсивность записи в вал
источник

t

timureh in Ceph — русскоговорящее сообщество
Alexander mamahtehok
#rocksdb_lvl nau 14.2.16 без тюнинга

первый график - размер раздела DB
второй график сколько занято
третитй сколько занято на медленном драйве
четвертый интенсивность записи в вал
раздел 300гб?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
timureh
раздел 300гб?
161
источник

D

Denis in Ceph — русскоговорящее сообщество
Alexander mamahtehok
ой ну хавтит уже эти магические циферки носить )))
объясните?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
чтоб обяснять?
источник

АИ

Александр Ильин... in Ceph — русскоговорящее сообщество
Alexander mamahtehok
делаете еще один датапул и мапите папку в него через атрибуты
Спасибо! Вы имеете в виду FILE LAYOUTS?
Я уже тоже пошел по этому пути, но не могу установить указанные в документации атрибуты через setfattr - получаю ошибку "Неподдерживаемая операция".
Куда грести не пойму пока.
источник

D

Denis in Ceph — русскоговорящее сообщество
Alexander mamahtehok
чтоб обяснять?
какие магические циферки хватит носить?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Denis
какие магические циферки хватит носить?
3 30 300
источник