Size: a a a

Ceph — русскоговорящее сообщество

2020 April 09

DP

Dmitry Polyakov in Ceph — русскоговорящее сообщество
у тебя останется 2/3
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Александр 🐎
4 монитора
2 упало
кворому не будет, но все будет работать
при подении точно нет
источник

А🐎

Александр 🐎 in Ceph — русскоговорящее сообщество
Кароч потестирую.
источник

А🐎

Александр 🐎 in Ceph — русскоговорящее сообщество
Я не верю чот вам
источник

А🐎

Александр 🐎 in Ceph — русскоговорящее сообщество
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Александр 🐎
Из опыта могу сказать, я клал 3 монитора из 5, и все работало
у меня падало одновремено три монитора из 5, кластер вставал раком.
источник

DP

Dmitry Polyakov in Ceph — русскоговорящее сообщество
Александр 🐎
Я не верю чот вам
на проде проверь плиз
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Александр 🐎
Кароч потестирую.
вообще читай про paxos алгоритм, на хабре даже его весь изжевали
источник

А🐎

Александр 🐎 in Ceph — русскоговорящее сообщество
Dmitry Polyakov
на проде проверь плиз
Всегда так делою
источник

TA

Tengiz Alaniya in Ceph — русскоговорящее сообщество
На какой вас фабрике делают.
источник

DP

Dmitry Polyakov in Ceph — русскоговорящее сообщество
Александр 🐎
Всегда так делою
3 моника? сделай systemctl stop на двух из 3х =)
источник

А🐎

Александр 🐎 in Ceph — русскоговорящее сообщество
Dmitry Polyakov
3 моника? сделай systemctl stop на двух из 3х =)
5
источник

DP

Dmitry Polyakov in Ceph — русскоговорящее сообщество
ну значит на 3х из 5
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
и кстати, да когда у меня ебанулись три мона, манагер еще долго паказывал что кластеру хуево но не совсем потому что он остался сидеть на живом моне, а вот для клиентов кластер встал колом.
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
истина где-то рядом...)
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Alexander Mamahtehok
Note Sometimes, typically in a “small” cluster with few hosts (for instance with a small testing cluster), the fact to take out the OSD can spawn a CRUSH corner case where some PGs remain stuck in the active+remapped state. If you are in this case, you should mark the OSD in with:
ceph osd in {osd-num}

to come back to the initial state and then, instead of marking out the OSD, set its weight to 0 with:

ceph osd crush reweight osd.{osd-num} 0

After that, you can observe the data migration which should come to its end. The difference between marking out the OSD and reweighting it to 0 is that in the first case the weight of the bucket which contains the OSD is not changed whereas in the second case the weight of the bucket is updated (and decreased of the OSD weight). The reweight command could be sometimes favoured in the case of a “small” cluster.
Реализация reweight всё-таки уебанская. Им нужно было сделать чтобы reweight был просто множителем к весу, а не отдельной частью логики
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Из-за этого вместо out получается прикольнее crush reweight в 0 сделать
источник

AK

Alexey Kostin in Ceph — русскоговорящее сообщество
Glor
@rumanzo а твоя бенчилка в каком режиме тестирует, аля журнал или на все деньги?
Да просто объекты записывает в промышленном масштабе, так что на все деньги
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Александр 🐎
Так если у вас 3 монитора, а вы ребутнули мон, то у вас пропал кворум
не, если ты выключишь одновременно больше половины монов - кворум пропадёт, IO встанет
источник

G

Glor in Ceph — русскоговорящее сообщество
Alexey Kostin
Да просто объекты записывает в промышленном масштабе, так что на все деньги
ок, спасибо
источник