Size: a a a

Ceph — русскоговорящее сообщество

2020 March 29

VD

Vyacheslav Danilyuk in Ceph — русскоговорящее сообщество
pool 4 'ceph-1' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 1024 pgp_num 1024 last_change 33687 lfor 0/17713 flags hashpspool,full stripe_width 0 application rbd
       removed_snaps [1~11,13~a2,b6~2,ba~4,bf~2,c3~2]
pool 26 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12789 flags hashpspool,full stripe_width 0 application rgw
pool 27 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12799 flags hashpspool,full stripe_width 0 application rgw
pool 28 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12794 flags hashpspool,full stripe_width 0 application rgw
pool 29 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12803 flags hashpspool,full stripe_width 0 application rgw
pool 30 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 last_change 33687 flags hashpspool,full stripe_width 0 application rgw
pool 31 'default.rgw.buckets.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 last_change 33687 flags hashpspool,full stripe_width 0 application rgw
pool 32 'default.rgw.users.uid' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 last_change 33687 owner 18446744073709551615 flags hashpspool,full stripe_width 0 application rgw
pool 34 'ssdpool' replicated size 3 min_size 2 crush_rule 1 object_hash rjenkins pg_num 128 pgp_num 128 last_change 32330 flags hashpspool stripe_width 0 application rbd
       removed_snaps [1~3]
источник

VD

Vyacheslav Danilyuk in Ceph — русскоговорящее сообщество
а почему размер он 3.9ТБ показывает? там места 19ТБ
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Блин, где смотреть привязку пулов к классу то...
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
В crush dump-е, что ли
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Ну у темя там в рулах класс указывается, да
источник

VD

Vyacheslav Danilyuk in Ceph — русскоговорящее сообщество
поменял веса, ничего далее не происходит
источник

В

Валерий in Ceph — русскоговорящее сообщество
Может не сразу?
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Т.е у него crush_rule 0 - это на все диски? А crush_rule 1 - вероятно только на ссд
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Artemy Kapitula
Ну у темя там в рулах класс указывается, да
?
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
ceph osd crush rule create-replicated <name> <root> <type> {<class>}
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Vyacheslav Danilyuk
pool 4 'ceph-1' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 1024 pgp_num 1024 last_change 33687 lfor 0/17713 flags hashpspool,full stripe_width 0 application rbd
       removed_snaps [1~11,13~a2,b6~2,ba~4,bf~2,c3~2]
pool 26 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12789 flags hashpspool,full stripe_width 0 application rgw
pool 27 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12799 flags hashpspool,full stripe_width 0 application rgw
pool 28 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12794 flags hashpspool,full stripe_width 0 application rgw
pool 29 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 16 pgp_num 16 last_change 33687 lfor 0/12803 flags hashpspool,full stripe_width 0 application rgw
pool 30 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 last_change 33687 flags hashpspool,full stripe_width 0 application rgw
pool 31 'default.rgw.buckets.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 last_change 33687 flags hashpspool,full stripe_width 0 application rgw
pool 32 'default.rgw.users.uid' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 last_change 33687 owner 18446744073709551615 flags hashpspool,full stripe_width 0 application rgw
pool 34 'ssdpool' replicated size 3 min_size 2 crush_rule 1 object_hash rjenkins pg_num 128 pgp_num 128 last_change 32330 flags hashpspool stripe_width 0 application rbd
       removed_snaps [1~3]
Короче имхо накур в том, что у тебя пулы не поделены
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Один кладет все вперемешку на хдд и ссд
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
А второй только на ссд
источник

VD

Vyacheslav Danilyuk in Ceph — русскоговорящее сообщество
как поделить?
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Краш рул поменять... с телефона не скажу точную команду. Типа вот как выше Артемий написал
источник

VD

Vyacheslav Danilyuk in Ceph — русскоговорящее сообщество
спасибо, почитаю
источник

МК

Марк ☢️ Коренберг in Ceph — русскоговорящее сообщество
источник

МК

Марк ☢️ Коренберг in Ceph — русскоговорящее сообщество
Как же заебали со своими очередями
источник

МК

Марк ☢️ Коренберг in Ceph — русскоговорящее сообщество
что в цефе что в ядре
источник

VD

Vyacheslav Danilyuk in Ceph — русскоговорящее сообщество
у меня по дефолту crush_rule 0 для HDD
crush_rule 1 для SSD
так что тут вроде все ок
источник