Size: a a a

Ceph — русскоговорящее сообщество

2020 June 20

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
а, ну может. лень теорвер вспоминать что бы оценить насколько оно может улутшиться
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
Сэнпаи, поясните, пожалуйста такой момент: в pve кластере руками сделал erasure coded pool, загнанный политиками репликации на один сервер, на корзину с жесткими дисками. Подцепил cache tier на мелком 3/2 пуле из SSD (три 20гб OSD), тоже привязанном политиками к этому же хосту. Цель - хранить инкерементальные бэкапы виртуалок proxmox с продаекшен пулов. Я все правильно сделал ?
источник

V

Victor in Ceph — русскоговорящее сообщество
Конечно, загонять все на один сервак на распределённой хранилке самое то 👍
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
нет возможности воткнуть по дешевому HDD на каждую ноду. Там все занято SSD. На SSD дорого хранить 100500 снэпшотов, поэтому я пытаюсь собрать аналог RAID6 на том сервере, где имеется корзина с жесткими.
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
Если бы была утилита для конвертации репликейшен стримов ceph<->zfs я бы хранил все это на raidz2, но ведь нет же ее.
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
nanomechanic
нет возможности воткнуть по дешевому HDD на каждую ноду. Там все занято SSD. На SSD дорого хранить 100500 снэпшотов, поэтому я пытаюсь собрать аналог RAID6 на том сервере, где имеется корзина с жесткими.
Ну если так, то разве что кэштир вроде не обязателен
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
EC пулы не все фичи поддерживают, proxmoxовский storage backend без cache tier с ними не работает. В принципе, я все сделал так как написал, осталось два вопроса: я для тестов создал виртуалку на одном из хостов, с 1тб диском на этом EC пуле, загрузился с livecd и запустил dd if=/dev/zero of=/dev/sda bs=1MiB и минут через 10 htop на хосте показывает 40гб занятой памяти, самой виртуалке отдано 16гб, 4гб зарезервированно под hugepages, больше ничего прожорливого не запущено, остается только Ceph. OSD я пытался придушить через
[osd]
        osd_memory_target = 536870912

но похоже не в этом дело, и OSD на этом хосте не используются.
Как можно лимитировать использование ОЗУ, так чтобы ceph со всеми демонами не жрал больше 4-8гб ?
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
nanomechanic
EC пулы не все фичи поддерживают, proxmoxовский storage backend без cache tier с ними не работает. В принципе, я все сделал так как написал, осталось два вопроса: я для тестов создал виртуалку на одном из хостов, с 1тб диском на этом EC пуле, загрузился с livecd и запустил dd if=/dev/zero of=/dev/sda bs=1MiB и минут через 10 htop на хосте показывает 40гб занятой памяти, самой виртуалке отдано 16гб, 4гб зарезервированно под hugepages, больше ничего прожорливого не запущено, остается только Ceph. OSD я пытался придушить через
[osd]
        osd_memory_target = 536870912

но похоже не в этом дело, и OSD на этом хосте не используются.
Как можно лимитировать использование ОЗУ, так чтобы ceph со всеми демонами не жрал больше 4-8гб ?
Прокс тупит, т.к так все уже умеет в цефе
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
второй вопрос - скорость. ec pool - 4+2, dd в виртуалке показывает мне ~60Mb/s а ноды соеденены 40гбит сеткой, cephу включил RDMA в конфигах и на репликейшен пулах норм скорость (в смысле, вообще НОРМАЛЬНУЮ, 20-40к IOPS в зависимости от загрузки хостов).
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
вообще, я бы предпочел утилиту инкрементальные снэпшоты заливать на zfs и обратно ресторить на ceph, benji может покрыть только в ceph->zfs направлении
источник

А

Александр in Ceph — русскоговорящее сообщество
nanomechanic
Сэнпаи, поясните, пожалуйста такой момент: в pve кластере руками сделал erasure coded pool, загнанный политиками репликации на один сервер, на корзину с жесткими дисками. Подцепил cache tier на мелком 3/2 пуле из SSD (три 20гб OSD), тоже привязанном политиками к этому же хосту. Цель - хранить инкерементальные бэкапы виртуалок proxmox с продаекшен пулов. Я все правильно сделал ?
какой-то крайне странный сетап... под будущее расширение, возможно, но если это на всегда останется одним хостом, лучше выкинуть
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
продакшен пулы с OSD на всех 5 нодах кластера, но я хочу снапшоты по всем образам виртуалок делать раз в 1-10 минут и куда-то их бэкапить. Так чтобы все промежуточные снэпшоты сохранялись. Т.е. нужен один большой пул на недорогих накопителях, а во все ноды воткнуть по HDD я не могу (4 ноды из 5 - это 1/2U Intel s2600jfq сервера, в одном 2U корпусе с 12 HDD отсеками).
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
nanomechanic
EC пулы не все фичи поддерживают, proxmoxовский storage backend без cache tier с ними не работает. В принципе, я все сделал так как написал, осталось два вопроса: я для тестов создал виртуалку на одном из хостов, с 1тб диском на этом EC пуле, загрузился с livecd и запустил dd if=/dev/zero of=/dev/sda bs=1MiB и минут через 10 htop на хосте показывает 40гб занятой памяти, самой виртуалке отдано 16гб, 4гб зарезервированно под hugepages, больше ничего прожорливого не запущено, остается только Ceph. OSD я пытался придушить через
[osd]
        osd_memory_target = 536870912

но похоже не в этом дело, и OSD на этом хосте не используются.
Как можно лимитировать использование ОЗУ, так чтобы ceph со всеми демонами не жрал больше 4-8гб ?
По поводу памяти - в целом он до нее прожорлив и < 2 гб osd не жрет. Может что-то получиться, если сильно урезать мемтейблы rocksdb (их по дефолту 4*256мб)
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
nanomechanic
второй вопрос - скорость. ec pool - 4+2, dd в виртуалке показывает мне ~60Mb/s а ноды соеденены 40гбит сеткой, cephу включил RDMA в конфигах и на репликейшен пулах норм скорость (в смысле, вообще НОРМАЛЬНУЮ, 20-40к IOPS в зависимости от загрузки хостов).
А тут момент - ec через кэштиринг это мэдленно. Надо делать через --data-pool тогда уж
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
proxmox не умеет образа создавать с —data-pool —metadata-pool
источник

n

nanomechanic in Ceph — русскоговорящее сообщество
не то чтобы я собираюсь виртуалки запускать с пула с бэкапами, но может потребоваться, чтобы какой-то определенный файл вытащить
источник

А

Александр in Ceph — русскоговорящее сообщество
разве с проксом в ручную нельзя это все сделать?
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
nanomechanic
proxmox не умеет образа создавать с —data-pool —metadata-pool
запатчи))
источник
2020 June 21

n

nanomechanic in Ceph — русскоговорящее сообщество
Виталий На Заборе
По поводу памяти - в целом он до нее прожорлив и < 2 гб osd не жрет. Может что-то получиться, если сильно урезать мемтейблы rocksdb (их по дефолту 4*256мб)
так и получается, 5 OSD, заняли 10гб, osd_memory_target не применимо в этом случае? Мне смутно помнится, что в 12.хх на pve 5 оно столько не жрало
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Этот параметр это рекомендация. Если будет нужно больше - съест больше
источник