Size: a a a

Ceph — русскоговорящее сообщество

2020 November 26

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Александр
если диски из одной партии используются абсолютно одинаково, то и выходить из строя они могут одинаково в один момент, по крайней мере, так говорят
это известная история, ну пока такого не случалось.
источник

Г

Георгий in Ceph — русскоговорящее сообщество
Страшилка для админов )
источник

А

Александр in Ceph — русскоговорящее сообщество
в дополнение к вышесказанному добавлю, bcache (как и любой другой кэш) это все таки усложнение конфигурации, т.е. если у вас цефом будут заниматься полторы калеки с плохой документацией...
источник

DV

Dimko Vedimko in Ceph — русскоговорящее сообщество
Павел Савин
ну для этого миррор из двух ssd
если failure domain - целая нода, то миррор не нужен
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
И имхо 150 гб бкэша гораздо эффективнее, чем 150 гб db
источник

Г

Георгий in Ceph — русскоговорящее сообщество
Александр
в дополнение к вышесказанному добавлю, bcache (как и любой другой кэш) это все таки усложнение конфигурации, т.е. если у вас цефом будут заниматься полторы калеки с плохой документацией...
а где хорошая?
источник

А

Александр in Ceph — русскоговорящее сообщество
Георгий
а где хорошая?
зависит от политики в компании
у нас на каждый случай расписана своя последовательность действий
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Dimko Vedimko
если failure domain - целая нода, то миррор не нужен
Думаю, что с тремя нодами, это слишком "жирно" потерять сразу целую ноду, при выходе из строя одного диска.
источник

Г

Георгий in Ceph — русскоговорящее сообщество
Александр
зависит от политики в компании
у нас на каждый случай расписана своя последовательность действий
прям на каждый? на каждый который уже происходил?
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Александр
в дополнение к вышесказанному добавлю, bcache (как и любой другой кэш) это все таки усложнение конфигурации, т.е. если у вас цефом будут заниматься полторы калеки с плохой документацией...
сам по себе ceph достаточно сложный, а bache уже почти не имеет значения будет он или нет.
источник

А

Александр in Ceph — русскоговорящее сообщество
Георгий
прям на каждый? на каждый который уже происходил?
на каждый, который уже происходил (баги, "нюансы", "правильные" последовательности команд) и все основные операции, выполняемые в жизни кластера
источник

V

VK in Ceph — русскоговорящее сообщество
кмк, уж лучше по 3 hdd на каждый ssd в ноде, чем пихать ssd  в миррор
источник

V

VK in Ceph — русскоговорящее сообщество
потеря трех osd менне критична, чем потеря целой ноды
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
VK
кмк, уж лучше по 3 hdd на каждый ssd в ноде, чем пихать ssd  в миррор
да возможно это хороший вариант. Надо обдумать., спасибо
источник

А

Александр in Ceph — русскоговорящее сообщество
Павел Савин
да возможно это хороший вариант. Надо обдумать., спасибо
мне ещё когда-то рекомендовали распределить ссд кэш с помощью краша на отдельные копии данных
что бы при потери ссд, терялась лишь реплика данных, а не все данные целиком
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Александр
мне ещё когда-то рекомендовали распределить ссд кэш с помощью краша на отдельные копии данных
что бы при потери ссд, терялась лишь реплика данных, а не все данные целиком
ну при failure domain node, там и так будет реплика двух других нод (фактор репликации 3).
Это про что, когда на одной ноде реплики на разных дисках?
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Павел Савин
Спасибо.
А подскажите какие решения для бекапа есть, для  object storage и rdb?
Что, никто не бекапит ceph?
источник

А

Александр in Ceph — русскоговорящее сообщество
Павел Савин
Что, никто не бекапит ceph?
бекапят, но цеф обычно не маленький и бекапить его... затруднительно
источник

S

SlyRaccoon in Ceph — русскоговорящее сообщество
Павел Савин
Что, никто не бекапит ceph?
под бекапить цеф что понимается?
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
ну это понятно. Просто у нас есть glusterfs, например там с бекапом тоже не всё гладко. Не хочется на новые грабли наступить.
источник