Size: a a a

OpenNebula - русскоговорящее сообщество

2019 September 05

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
Думаю, что автор @kvaps расскажет лучше )
источник

SM

Stanislav Motriy in OpenNebula - русскоговорящее сообщество
Про 8 реплик. А raid 1 в контексте drbd8.
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
8 реплик - это raid1 на 8 устройств )
источник

VP

Vladimir P in OpenNebula - русскоговорящее сообщество
А если на zfs поднять, скажем Z2 или Z3, то raid1 с дополнительной коррекцией ошибок данных
источник

SM

Stanislav Motriy in OpenNebula - русскоговорящее сообщество
Nick Potemkin
8 реплик - это raid1 на 8 устройств )
Чего-то мне тогда не понятно, как масштабируется линстор
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
добавлением новых storage nodes
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
ну или добавлением дисков в существующие
но, в любом случае, по скорости записи мы ограничены производительностью одного устройства, которое подано в storage node (если никаких извратов не придумывать)
источник

SM

Stanislav Motriy in OpenNebula - русскоговорящее сообщество
Короче, надо пробовать. Нихера не понятно.
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
точно ) разверни несколько виртуалок, подай туда дисков и попробуй...
источник
2019 September 06

ИИ

Игорь Исаенко in OpenNebula - русскоговорящее сообщество
linstor, который на 9 drbd, делает простую вещь.
Например, нужен диск под виртуалку.
Под этот диск будет создано одно блочное устройство (например, lvm раздел) на одном сервере, как мастер.
И ещё на 1-2 серверах создадутся блочные устройства-реплики.
Пока жив мастер, работа идет только с ним (естественно, реплики получают изменения фоново).
Если мастер умрет, какая-то реплика станет мастером, может даже прозрачно.

Собственно, вся нагрузка одного виртуального диска идет в одно блочное устройство на одном сервере, поэтому это быстрее, чем ceph.
Но наверное сложнее будет сбалансировать нагрузку.

У ceph наоборот - виртуальный диск "размазан" по куче серверов и дисков.
В результате, нагрузка даже одного виртуального диска "размазывается" по куче серверов и дисков.
Но (за счет бОльшего сетевого взаимодействия при размазывании) выходит медленнее.
источник

ВН

Виталий На Заборе in OpenNebula - русскоговорящее сообщество
а оно синхронно реплицирует?
источник

ИИ

Игорь Исаенко in OpenNebula - русскоговорящее сообщество
Ага, как raid1 же
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
Виталий На Заборе
а оно синхронно реплицирует?
оно синхронно посылает изменения с diskless ноды на storage ноды
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
т.е. трафик с diskess ноды = трафик записи устройство drbd*кол-во реплик
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
это, естественно, если все нормально
источник

SM

Stanislav Motriy in OpenNebula - русскоговорящее сообщество
Такс, а diskless-ноды обязательно должны быть на каждом хосте, который юзает drbd? Или оно может быть вообще сбоку и общаться только через контроллер?
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
diskless нода - это нода, которая использует ресурсы
storage нода - нода, которая содержит их физически
роли можно смешать, т.е. сделать и использование и физическое хранение одной копии на одной ноде
источник

SM

Stanislav Motriy in OpenNebula - русскоговорящее сообщество
Вон оно чего. А я тут голову ломаю. Развернул всё это на виртуалках и пытался заюзать на физических хостах.
источник

NP

Nick Potemkin in OpenNebula - русскоговорящее сообщество
физический хост - diskless нода в таком случае.. там нужен только клиент drbd и он должен подсоединиться к виртуалкам )
источник

SM

Stanislav Motriy in OpenNebula - русскоговорящее сообщество
Чего-то один хрен у меня нифига не работает. Правда в контексте прохмоха. Ничего не хотит он делать с этим стораджем
источник