Size: a a a

Ceph — русскоговорящее сообщество

2020 April 01

В🌚

Влад Разумовский 🌚 in Ceph — русскоговорящее сообщество
Всем привет. Подскажите пожалуйста, как в ceph mimic увеличить параметр mon_max_pg_per_osd ? Уже и в [global] и в [mon] пишу - бесполезно :) Всем добра

ceph version 13.2.8 (5579a94fafbc1f9cc913a0f5d362953a5d9c3ae0) mimic (stable)
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Влад Разумовский 🌚
Всем привет. Подскажите пожалуйста, как в ceph mimic увеличить параметр mon_max_pg_per_osd ? Уже и в [global] и в [mon] пишу - бесполезно :) Всем добра

ceph version 13.2.8 (5579a94fafbc1f9cc913a0f5d362953a5d9c3ae0) mimic (stable)
ceph config set globl mon_max_pg_per_osd 250
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
потом ребутнуть по очереди моны и осд
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
на лету этот параметр вроде бы не применяется
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
ну либо еще inject сделать
источник

В🌚

Влад Разумовский 🌚 in Ceph — русскоговорящее сообщество
Alexander Mamahtehok
ceph config set globl mon_max_pg_per_osd 250
Вы не ошиблись, там точно globl ?
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
global
источник

В🌚

Влад Разумовский 🌚 in Ceph — русскоговорящее сообщество
это достаточно сделать на 1 моне и потом по очереди ребутать, после того как засинкаются?
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
да
источник

В🌚

Влад Разумовский 🌚 in Ceph — русскоговорящее сообщество
спасибо!
источник

В🌚

Влад Разумовский 🌚 in Ceph — русскоговорящее сообщество
# ceph osd pool set rbd pg_num 256

Error E2BIG: specified pg_num 256 is too large (creating 128 new PGs on ~3 OSDs would exceed the per-OSD max of 32 given by mon_osd_max_split_count); please increase the pg_num in smaller steps

Это он просит потихоньку повышать что ли?Текущий параметр 128
источник

PK

Pavel Kolobaev in Ceph — русскоговорящее сообщество
да
источник

В🌚

Влад Разумовский 🌚 in Ceph — русскоговорящее сообщество
Возможно, я двигаюсь по неправильному пути ?
Я эти действия выше выполняю для того, чтоб исправить ошибку при старте ceph-radosgw, в логе вот такое

rgw_init_ioctx ERROR: librados::Rados::pool_create returned (34) Numerical result out of range (this can be due to a pool or placement group misconfiguration, e.g. pg_num < pgp_num or mon_max_pg_per_osd exceeded)
источник

В🌚

Влад Разумовский 🌚 in Ceph — русскоговорящее сообщество
Поделитесь пожалуйста, мб кто-то решал такую проблемку
источник

PK

Pavel Klyuev in Ceph — русскоговорящее сообщество
Привет!
Есть диски от кластера, можно ли их добавить как osd в другой кластер, развернув его "с нуля" ? Подскажите, как пожалуйста.
источник

МК

Марк ☢️ Коренберг in Ceph — русскоговорящее сообщество
Pavel Klyuev
Привет!
Есть диски от кластера, можно ли их добавить как osd в другой кластер, развернув его "с нуля" ? Подскажите, как пожалуйста.
Очистить их от всего старого и добавить в новый кластер по инструкции из доки
источник

PK

Pavel Klyuev in Ceph — русскоговорящее сообщество
Марк ☢️ Коренберг
Очистить их от всего старого и добавить в новый кластер по инструкции из доки
А если хочется как раз "старое"
источник

МК

Марк ☢️ Коренберг in Ceph — русскоговорящее сообщество
Т.е. от предыдущего кластера мониторы наебнулись ?
источник

Е

Евгений [BG] in Ceph — русскоговорящее сообщество
Pavel Klyuev
А если хочется как раз "старое"
запасся поп-корном
источник

PK

Pavel Klyuev in Ceph — русскоговорящее сообщество
Марк ☢️ Коренберг
Т.е. от предыдущего кластера мониторы наебнулись ?
Ниче не осталось вроде, да
источник