Size: a a a

Ceph — русскоговорящее сообщество

2020 June 25

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
а вот добавление устройства приведет к ребаласу в любом случае потому что карта поменяется
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Виталий На Заборе
Нет, если ты в правило припилишь класс, то приведет
Причем к ребалансу ВСЕГО
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Виталий На Заборе
Причем к ребалансу ВСЕГО
не приведет )))
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
правило не изменяет саму карту
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
распределение останется таким же
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Alexander mamahtehok
распределение останется таким же
Нет. Классы сделаны через параллельные иерархии
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
С другими id
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Виталий На Заборе
Нет. Классы сделаны через параллельные иерархии
Ждем третье мнение
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Самое забавное что хто не важно :)
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Alexander mamahtehok
Ждем третье мнение
Ну я так делал и сильно прихуел когда все поехало
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Ребаланс либо будет либо нет. Но какая разница? Чтотесли будет ребеаланс ты не будешь добовлять ссд для индекса?
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Alexander mamahtehok
Ребаланс либо будет либо нет. Но какая разница? Чтотесли будет ребеаланс ты не будешь добовлять ссд для индекса?
Не, жобавить то не жалко
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Виталий На Заборе
Ну я так делал и сильно прихуел когда все поехало
Я тоже делал и чот не помню чтоб у меня все ехало
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
А вот прописываешь класс. Все было на хдд и осталось на хдд. Но айдищники все другие
источник

DB

Dmitry Burlakov in Ceph — русскоговорящее сообщество
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
Виталий На Заборе
А вот прописываешь класс. Все было на хдд и осталось на хдд. Но айдищники все другие
ceph osd getcrushmap -o original
crushtool -i original --reclassify --set-subtree-class default hdd --reclassify-root default hdd -o adjusted
ceph osd setcrushmap -i adjusted

на тестовом кластере из трех виртуалок и 6 osd ребаланса не вызвал
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
# crushtool -i original --compare adjusted
rule 0 had 0/10240 mismatched mappings (0)
maps appear equivalent
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
при этом
root@ceph-01:~# diff -u original.txt adjusted.txt
--- original.txt        2020-06-25 18:35:12.618730103 +0000
+++ adjusted.txt        2020-06-25 18:32:59.136606925 +0000
@@ -32,15 +32,15 @@

# buckets
host ubuntu-s-2vcpu-4gb-fra1-ceph-01 {
-       id -3           # do not change unnecessarily
-       id -4 class hdd         # do not change unnecessarily
+       id -15          # do not change unnecessarily
+       id -3 class hdd         # do not change unnecessarily
       # weight 0.000
       alg straw2
       hash 0  # rjenkins1
}
host ubuntu-s-2vcpu-4gb-fra1-ceph-02 {
-       id -5           # do not change unnecessarily
-       id -6 class hdd         # do not change unnecessarily
+       id -14          # do not change unnecessarily
+       id -5 class hdd         # do not change unnecessarily
       # weight 0.080
       alg straw2
       hash 0  # rjenkins1
@@ -48,8 +48,8 @@
       item osd.3 weight 0.040
}
host ubuntu-s-2vcpu-4gb-fra1-ceph-03 {
-       id -7           # do not change unnecessarily
-       id -8 class hdd         # do not change unnecessarily
+       id -13          # do not change unnecessarily
+       id -7 class hdd         # do not change unnecessarily
       # weight 0.080
       alg straw2
       hash 0  # rjenkins1
@@ -57,8 +57,8 @@
       item osd.5 weight 0.040
}
host ceph-01 {
-       id -9           # do not change unnecessarily
-       id -10 class hdd                # do not change unnecessarily
+       id -12          # do not change unnecessarily
+       id -9 class hdd         # do not change unnecessarily
       # weight 0.080
       alg straw2
       hash 0  # rjenkins1
@@ -66,8 +66,8 @@
       item osd.0 weight 0.040
}
root default {
-       id -1           # do not change unnecessarily
-       id -2 class hdd         # do not change unnecessarily
+       id -11          # do not change unnecessarily
+       id -1 class hdd         # do not change unnecessarily
       # weight 0.240
       alg straw2
       hash 0  # rjenkins1
@@ -83,7 +83,7 @@
       type replicated
       min_size 1
       max_size 10
-       step take default
+       step take default class hdd
       step chooseleaf firstn 0 type host
       step emit
}
источник

e

edo1 in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
ну вообще-то ssd часто сдыхают от выработки ресурса. сдохло на одном -- велика вероятность что и на соседнем сдохнет примерно в это же время, если хосты ставились одновременно.
ни разу не встречал на DC дисках.
источник

e

edo1 in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
вообще я проводил тестирование нгинкса и haproxy для кеширования (точнее не haproxy а его форка -- nuster). nginx проиграл (что и не удивительно, все же у него исходное предназначение другое)
а в чём именно нжинкс проиграл? (тест был на пропускную способность или на процент хитов?)
источник