Size: a a a

SDS и Кластерные FS

2021 May 15

AS

Anton Smolkov in SDS и Кластерные FS
источник

AS

Anton Smolkov in SDS и Кластерные FS
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
ссд по сети типа лучше чем хдд локальное
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
всех наебали
источник

n

nanomechanic in SDS и Кластерные FS
рдма за денюшку, и немалую
источник

n

nanomechanic in SDS и Кластерные FS
nvmeof нормально же работает
источник

AS

Anton Smolkov in SDS и Кластерные FS
Accessing The Disks: There are 3 ways to access disks. Local (testing disks on Node1 locally via node1), drbd-diskless (testing disks on node1 or node2 over USAP1 with DRBD protocol), and ISCSI (accessing disks on Node1 and Node2 with ISCSI protocol over USAP1)
источник

AS

Anton Smolkov in SDS и Кластерные FS
Там в тесте 10G медь
источник

МК

Марк ☢️ Коренберг... in SDS и Кластерные FS
Сначала подумал про тесто. потом про тестя.
источник
2021 May 16

N

Noel in SDS и Кластерные FS
Майские удались
источник

c

cloud_tg_captcha_bot in SDS и Кластерные FS
User didn't pass the validation and was banned.
источник

c

cloud_tg_captcha_bot in SDS и Кластерные FS
User passed the validation.
источник

MT

Max Troshyn in SDS и Кластерные FS
привет, вопрос по glusterfs. Есть три сервера, хочу настроить replicated volume (2 brick-а и один арбитр), bricks хочу создать на lvm томах. Интересуют такие вопросы:
- есть ли нюансы при настройке glusterfs volume, если bricks будут представлять из себя обычные lvm тома (не thin provisioned)?
- если нужно будет расширить lvm том, на котором находится brick, то есть нюансы или достаточно выполнить "lvextend --resizefs -L+500M VGgluster/brick1" для каждого lvm тома, на которых созданы bricks ?
- не возникает ли каких то проблем под рабочей нагрузкой при такой схеме работы (имеются в виду проблемы, не связанные с производительностью дисковых операций) ?
Есть кто то, кто имел дело с glusterfs volume, созданным по такой схеме ?
источник

ОБ

Олег Б in SDS и Кластерные FS
к гластеру вопрос стабильности, тема мусолилась сотни раз
источник

t

tsla in SDS и Кластерные FS
Про vdo - враньё, все 50% отнимайте
источник

t

tsla in SDS и Кластерные FS
1. Я на lv всегда делал, норм
2. Вот была такая задача, но там ДБА расширил как раз через lvextend и были ошибки, уже не помню как решил и причём без даунтайма, но потратил я тогда около 1.5 часа
источник

t

tsla in SDS и Кластерные FS
Стабильный он, бывает нужен, например у кого-то минио и всего 2 ВМки, и это добро надо в прод, почему бы и нет? Арбитра на хапрокси вешают и делов-то
источник

t

tsla in SDS и Кластерные FS
По любому у тебя хапрокси стоит перед куб ингрессом как л3/л4, хотя конечно у тебя может быть и ELB в обмозоне
источник

MT

Max Troshyn in SDS и Кластерные FS
Можете привести конкретные примеры с личного опыта ? В чем выражается нестабильность, какие данные хранялись в гластере у вас, какие нагрузки преобладали (чтение или запись) и какой уровень нагрузок был, какой тип волюма использовался , на каких дисках и с какой файловой системой?

Я буду размещать в гластере статику (в основном мелкие картинки) , преобладать будут запросы на чтение, нагрузка на волюм планируется в несколько раз меньше, чем выдает волюм при тесте на чтение и запись. Сервера под гластер будут  размещены у одного провайдера в одной геозоне, диски ssd. Во время тестов я не сталкивался с проблемами стабильности. Но опыта эксплуатации в проде нет, поэтому хотелось бы услышать конкретные примеры, когда гластер работал нестабильно.
источник

ОБ

Олег Б in SDS и Кластерные FS
ссылками можно:
https://habr.com/ru/company/croc/blog/353666/
Так же на форуме proxmox находил отзыв эксперта REdHat который взывал не использовать гластер в проде, только CEPH
Я сейчас сам в выборе кластерной FS, на 2-3 сервера, дрбд с линстор пока не удается запустить как нужно в тесте, правда всего 2-3 часа потратил тестовых, при том прикол на первом же этапе установки   cat /proc/drbd  version: 8.4.11, но с этим иногда удается после побороться) а линстор говорит version miss mutch иногда при одинаковых пакетах) в общем сам ищу доводы в пользу того или иного сейчас и нужно пару деньков потестировать и разобраться. А так у соседей есть положительный опыт с Gluster (но там совсем скромный конфиг на 10 виртуалок) и Ceph отрицательный скорее (ибо памяти жрет не в себя.
источник