Size: a a a

Ceph — русскоговорящее сообщество

2021 July 14

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
А значит у вас есть RBD/CephFS/S3
источник

K

Koba in Ceph — русскоговорящее сообщество
пока только cephfs
источник

S

Sergey in Ceph — русскоговорящее сообщество
репликация не  бекап же
источник

IR

Igor Reno in Ceph — русскоговорящее сообщество
Репликация не бэкап - но репликация защищает данные от повреждения за счёт поломки железа; а разделение сетей и доступов - не допускает к данным посторонних.
источник

IR

Igor Reno in Ceph — русскоговорящее сообщество
Ну а так - готовых инструментов под CephFS, которыми можно было бы быстро посчитать дельту и забрать её куда-нибудь в сторонку - ни сам я не смог найти, ни подсказок никаких куда смотреть не поступало.
источник

IR

Igor Reno in Ceph — русскоговорящее сообщество
Снэпшоты - не в счёт :) Это не совсем бэкап, и если цеф ляжет - то и снэпшоты вместе с ним, так что данные уже будет не достать. Тем более, что чем больше снэпшотов в CephFS - тем больше вероятность, что он ляжет.
источник

A

Alex in Ceph — русскоговорящее сообщество
бекапить нужно на уровне логики данных
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
тогда только rsync
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
потому что бэкап хранилища на X PB (а если меньше -- нафига цеф вообще?) поднимает следующие вопросы:
1. хранить (надежно) эти X PB (я не любитель лент, но скажем для 5PB надо 277 кассет LTO-9). это деньги, объемы.
1.1 даже X*Y PB, потому что еще за несколко дней дельты
2. успевать записывать дельту за интервал между бэкапами
3. востанавливать бэкап за разумное время. (опять же, для LTO-9 это 144 суток. ммм... а точно этот бэкап еще нужен?)
3.1 окей, а собственно сколько времени будет идти первоначальный бэкап? сколько-сколько?! полгода?! а сколько мы потом дельтами догонять будем? вечность?
за какое время вы востановите X PB? хотя бы тупо эти PB поделить на скорость трансфера, потери на мелкости файлов пренебрегаем
4. управлять этим всем говном. в X PB у нас будет вероятно несколько миллиардов файлов. про каждый надо знать где именно в бэкапе он находится. у нас есть решения которые это позволяют? а каких ресурсов они требуют?
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
cloudberry
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
5. ну и вообще прочекать хотя бы список всех объектов. это сколько времени займет? сутки? месяц?
источник

A

Alex in Ceph — русскоговорящее сообщество
Veeam 😄
источник

A

Alex in Ceph — русскоговорящее сообщество
Правда оно работать будет полным перебором скорее всего
источник

IR

Igor Reno in Ceph — русскоговорящее сообщество
вот да: кидать нужные файлы и в цеф и сразу на какой-то бэкап, который не позволяет delete
источник

A

Alex in Ceph — русскоговорящее сообщество
AWS S3 с локами, как вариант)
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
а как у него с масштабированием в обе стороны?
источник

SM

Stanislav Motriy in Ceph — русскоговорящее сообщество
С масштабированием в отличие от того же минио всё збс. Надо больше стораджей - просто добавляешь больше стораджей без всякого геморроя.
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
надо будет посомтреть.
ceph-то очень удобен, что можно добавлять ноды, добавлять osd в ноду, убирать osd, ноды, менять диски на диски другого размера и останется всегда необходимое для безопасной работы состояние в итоге после ребалансировки
источник

R

Roman in Ceph — русскоговорящее сообщество
Второй цепх, где в s3 только put разрешён
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
включение версионности на бакете снимает много проблем связанных с человеческим фактором )
источник