Size: a a a

2021 February 25

K

Kerrigan in codingteam
BUSY WAITING
источник

O

Omap in codingteam
только смысл всего этого, если, например, хранилище умеет дедуплекацию на блочном уровне
источник

c

codingteam@cjr in codingteam
Minoru
@Sergiy Shatunov: да, действительно, есть три подхода: 1) полные бекапы, т.е. копия вообще всех данных, каждый раз. Занимают много места, зато быстро разворачиваются и меньше подвержены проблемам с бекапным диском; 2) инкрементальные бекапы, содержащие только некоторую дельту относительно предыдущего (инкременталнього или полного) бекапа. Занимают меньше места, чем полные, но для разворачивания нужна вся «цепочка» от полного к инкрементальному, и потеря одного «звена» может привести к невозможности восстановить вообще что-либо;
Кроме того, никакой из инкрементальных бекапов нельзя удалить, чтобы сэкономить место — приходится всячески выкручиваться, либо делая «мерж» двух инкрементальных, либо превращая его в полный. 3) дедуплицированные: каждый раз делаем полный бекап, но данные разбиваются на блоки, и каждый уникальный блок хранится всего один раз. Это золотой Грааль: любой бекап можно удалить без ущерба остальным, разворачиваются так же быстро как и полные. Минус в том, что потеря одного блока может испортить много файлов во многих бекапах.
источник

K

Kerrigan in codingteam
beam постоянно теребит проц, чтобы его из кешей не выкидывало
источник

O

Omap in codingteam
норм
источник

c

codingteam@cjr in codingteam
Minoru
@sarakerrigan: это тот beam, который VM для Erlang?
источник

O

Omap in codingteam
удобно для встройки
источник

K

Kerrigan in codingteam
ага, он самый
источник

O

Omap in codingteam
> Минус в том, что потеря одного блока может испортить много файлов во многих бекапах.

если у тебя портятся блоки в системе хранения бекапов, то это повод подумать об отказе от этой системы
источник

c

codingteam@cjr in codingteam
Minoru
@power_mew: только ситхи всё возводят в абсолют. Ты опять нашёл какой-то риск и раздуваешь его в причину отказаться ото всей затеи. Не надо так
источник

c

codingteam@cjr in codingteam
Minoru
на самом деле риск достаточно осознать, оценить, и принять относительно него какую-то стратегию. Одна из возможных стратегий — забить
источник

c

codingteam@cjr in codingteam
Minoru
в данном случае можно также заменить систему хранения на RAID с избыточностью, или попеременно использовать две системы, как я советовал Эндеру выше
источник

O

Omap in codingteam
а неофиты разводят демагогию на ровном месте
источник

O

Omap in codingteam
сейчас я тебе лишь указал, что смысл строить систему на чем-то, склонному к отказу нет. Если у тебя портятся "какие-то" блоки, не имеет значение как организовано хранение данных на этом носителе: доверия к ним всё равно низкое.
источник

O

Omap in codingteam
да, в случае большей избыточности у тебя может сохранится больше информации, но будешь ли ты заниматься сбором конечных данных из набора разных версий?
источник

c

codingteam@cjr in codingteam
Minoru
«смысла строить систему на чём-то, склонному к отказу, нет»? Это и есть возведение в абсолют. Смысл есть. Почти всё на свете при каких-то условиях отказывает. Не надо этого пугаться, это надо принять и учесть
источник

O

Omap in codingteam
Нет, нужно понимать зачем ты бекап делаешь
источник

c

codingteam@cjr in codingteam
Minoru
про «сбор конечных данных из **набора разных версий**» я не понял. Вряд ли ты про избыточный RAID, он не так работает
источник

O

Omap in codingteam
если ты делаешь ради того, что бы вернуться к чему-то, что было когда-то, то тебе точно нужен контроль версий
источник

O

Omap in codingteam
если тебе нужно просто сохранить какие-то данные и не потерять их в процессе работы
источник