Size: a a a

Ceph — русскоговорящее сообщество

2021 July 31

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
вот тебе второй ответ )))
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
короче ты прям все косяки собрал
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
осталось только нвме выкинуть чтоб еще и бд на блинах была ))))
источник

D

Dimm in Ceph — русскоговорящее сообщество
👍
источник

W

Wild_Wind in Ceph — русскоговорящее сообщество
О, у меня есть один такой бомжекластер. Однонодовый.
фулл хдд.
Но маленький. На 20тб.
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
выше скрин кидал с кластера с гиговыми интерфейсами фуллхдд ец цеффс )))
источник

W

Wild_Wind in Ceph — русскоговорящее сообщество
там тоже гиг :)))
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Потому что математика. EC работает ну ооочень хреново на частичную перезапись.
источник

n🐈

nikoinlove 🐈 in Ceph — русскоговорящее сообщество
а может кто расшифровать почему у меня ceph -s подвисает?
https://pastebin.com/SLVhBnyn
источник

n🐈

nikoinlove 🐈 in Ceph — русскоговорящее сообщество
мне че-т не удается)
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Потому что не может подключиться к монитору или кластер не в кворуме.
источник

n🐈

nikoinlove 🐈 in Ceph — русскоговорящее сообщество
похоже так и было, жалко я из трейса такого понять не смог(
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Открою тебе секрет... Я не смотрел трейс.
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
:))))
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
ТАК ИХ
источник

n🐈

nikoinlove 🐈 in Ceph — русскоговорящее сообщество
хорошо же, не потратил лишнего времени на всякую фигню
источник
2021 August 01

k

kiosaku in Ceph — русскоговорящее сообщество
хочется нехорошего 🙂 (используется octopus):
* sda4 - blustore osd (hdd), sdb1 - metadata db (ssd), sdb2 - wal (ssd) (хотя db+wal можно вместе разместить, не разбивая отдельно)
* sdb3 - bluestore osd (ssd)

вопрос - по размерам разделов sdb1 и sdb2 (10% + 1% от размера osd?)
источник

k

kiosaku in Ceph — русскоговорящее сообщество
и подскажите partition guid для ceph db - хотя в документации, скорее всего, есть

upd. где-то тут: https://docs.ceph.com/en/latest/rados/configuration/bluestore-config-ref/
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
вал выносить отдельно смысла нет, если ссд тот же
4% на дб должно быть достаточно
источник

k

kiosaku in Ceph — русскоговорящее сообщество
рекомендации proxmox-а как раз 10+1% …
хотя по ссылке выше, для rbd рекомендация прописана как 1-2%
источник