Size: a a a

Ceph — русскоговорящее сообщество

2020 May 12

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
ceph osd tree нам ещё пожалуйста)
источник

В

Валерий in Ceph — русскоговорящее сообщество
Есть у меня кластер из 5 нод цефа. В нем живут диски виртуалок. Сетка 10 Гбит. Сдуру не подумав, на одной ноде (чисто osd) установил MTU 9000. Кластер ненадолго ушел в варнинг, а потом все хранилище встало колом. Виртуалки многие зафризились в кому. Убрал 9000 на 1500. Постепенно все восстановилось, однако мне хватило. Не могу понять разве мои действия могли привести к этому?
источник

В

Валерий in Ceph — русскоговорящее сообщество
да, он вышеол из ворнинга и стал OK
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
а. ещё лучше. сайз три, а хост один
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
правильно чует моя попа
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Ну мон один да)
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Тривиально.  Один хост, краш по умолчанию с автодобавлением, config по умолчанию с size 3 by-host
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Artemy Kapitula
Тривиально.  Один хост, краш по умолчанию с автодобавлением, config по умолчанию с size 3 by-host
В ёблочко
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Валерий
Есть у меня кластер из 5 нод цефа. В нем живут диски виртуалок. Сетка 10 Гбит. Сдуру не подумав, на одной ноде (чисто osd) установил MTU 9000. Кластер ненадолго ушел в варнинг, а потом все хранилище встало колом. Виртуалки многие зафризились в кому. Убрал 9000 на 1500. Постепенно все восстановилось, однако мне хватило. Не могу понять разве мои действия могли привести к этому?
Конечно. А ещё правильнее переключить все на 9000
источник

N

Natalia in Ceph — русскоговорящее сообщество
root@uhm04:~# ceph osd pool get cephfs_metadata size
size: 3
root@uhm04:~# ceph osd pool get cephfs_metadata min_size
min_size: 2
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Natalia
root@uhm04:~# ceph osd pool get cephfs_metadata size
size: 3
root@uhm04:~# ceph osd pool get cephfs_metadata min_size
min_size: 2
Сколько нод у вас?
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Natalia
root@uhm04:~# ceph osd pool get cephfs_metadata size
size: 3
root@uhm04:~# ceph osd pool get cephfs_metadata min_size
min_size: 2
ПОДУМОЙ (НЕЕШ)
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
=))
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Сколько у вас серверов?)
источник

N

Natalia in Ceph — русскоговорящее сообщество
Irek Fasikhov
Сколько у вас серверов?)
пока тестирую
сервера 2
на первом - mon mgr mds
на втором -  osd
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Ыыыы, то есть по факту ОДИН.
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Ч.т.д.
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
адын, сафсэм адын
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Natalia
пока тестирую
сервера 2
на первом - mon mgr mds
на втором -  osd
Должно быть минимум три и можете не разделять компоненты по нодам/серверам.
источник

D

Dmitry in Ceph — русскоговорящее сообщество
Artemy Kapitula
Тривиально.  Один хост, краш по умолчанию с автодобавлением, config по умолчанию с size 3 by-host
кстати! какой параметр отвечает за автодобавление, osd crush update on start ?
источник