Size: a a a

Ceph — русскоговорящее сообщество

2020 May 27

D

Dmitry in Ceph — русскоговорящее сообщество
Коллеги, подскажите пожалуйста. Есть цепх. В нём есть RBD-пул. Этот пул используется как общее хранилище для кластера из проксмоксов.

Нужно подключить к этому же пулу ещё пару проксмоксов, не входящих в кластер. Можно ли так делать, ничего не сломается?
источник

t

timureh in Ceph — русскоговорящее сообщество
Dmitry
Коллеги, подскажите пожалуйста. Есть цепх. В нём есть RBD-пул. Этот пул используется как общее хранилище для кластера из проксмоксов.

Нужно подключить к этому же пулу ещё пару проксмоксов, не входящих в кластер. Можно ли так делать, ничего не сломается?
ну прокс же там имеджи хранит как
"vm-135-disk-1
vm-183-disk-1"
например
источник

D

Dmitry in Ceph — русскоговорящее сообщество
ага
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
Dmitry
Коллеги, подскажите пожалуйста. Есть цепх. В нём есть RBD-пул. Этот пул используется как общее хранилище для кластера из проксмоксов.

Нужно подключить к этому же пулу ещё пару проксмоксов, не входящих в кластер. Можно ли так делать, ничего не сломается?
если это разные кластеры проксов проще создать еще пул
источник

t

timureh in Ceph — русскоговорящее сообщество
Alex Kokh
если это разные кластеры проксов проще создать еще пул
+
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
а то конфликтанет по именам, будете потом разбираться
источник

t

timureh in Ceph — русскоговорящее сообщество
если не входящих в кластер значит общий сторадж им не нужен
источник

D

Dmitry in Ceph — русскоговорящее сообщество
Alex Kokh
если это разные кластеры проксов проще создать еще пул
так. у меня сейчас есть RBD пул c именем ssd . Он живёт на ssd дисках (правило называется replicated_rule_ssd).

Как мне создать новый пул (например ssd1) чтобы он жил на тех же самых ссд дисках рядом с первым?
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
создать новый пул ssd1 с правилом  replicated_rule_ssd1
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
на те же osd
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
возможные проблемы - количество pg на осд.
источник

G

Glor in Ceph — русскоговорящее сообщество
ну если кластер на нау, то и не проблема
источник

D

Dmitry in Ceph — русскоговорящее сообщество
Glor
ну если кластер на нау, то и не проблема
люма) Но с кол-вом пг проблем не будет, в этом пуле их немного
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
Dmitry
люма) Но с кол-вом пг проблем не будет, в этом пуле их немного
ну там проблема что на осд должно приходиться определенное количество пг. и считают их обычно для первого пула. и если создать воторой такой-же будет неприятно
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
еще есть грабли с >100 pg на osd из-за которых эти osd могут из кластрера вылетать
источник

D

Dmitry in Ceph — русскоговорящее сообщество
Alex Kokh
ну там проблема что на осд должно приходиться определенное количество пг. и считают их обычно для первого пула. и если создать воторой такой-же будет неприятно
Тут повезло: пул создавался на поиграться и потому на 24 осд всего 128пг. Так что ещё один пул со 128 пг не должен стать проблемой
источник

D

Dmitry in Ceph — русскоговорящее сообщество
Alex Kokh
создать новый пул ssd1 с правилом  replicated_rule_ssd1
как-то так?

ceph osd pool create ssd1 128 128 replicated replicated_rule_ssd
ceph osd pool set ssd1 size 3
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
Dmitry
как-то так?

ceph osd pool create ssd1 128 128 replicated replicated_rule_ssd
ceph osd pool set ssd1 size 3
ceph osd pool create ssd1 128 128
ceph osd pool set ssd1 crush_rule replicated_rule_ssd
ceph osd pool application enable ssd1 rbd
источник

D

Dmitry in Ceph — русскоговорящее сообщество
спасибо!
источник

AK

Alex Kokh in Ceph — русскоговорящее сообщество
т.е. собственно даже правило создавать не надо. просто существующее навесить
источник