Size: a a a

Ceph — русскоговорящее сообщество

2020 April 17

KA

Konstantin Aristov in Ceph — русскоговорящее сообщество
Виталий На Заборе
А потом в компании появился отдел DevOps
о, верной дорогой!!! )))
источник

А

Артемий in Ceph — русскоговорящее сообщество
вроде как в ceph есть понятие cache tiering, если я как раз сделаю такие диски на ssd по 200-500gb (как раз столько примерно пишет одна нода в неделю), то вся запись и чтение того что только что было записанно в приоритете окажется на этих нодах, а в фоне он сделает реплику в другой дц с большими hdd. Эти ноды под которые кеш нужен не то чтобы большие объемы пишут, просто он эти файлы потом читает по 3-4 раза и очень не хочется чтобы он их читал из другого дц, так как там критично время. (грубо говоря взять 150 фоток, пережать и запихнуть в pdf, отдать клиенту).
источник

А

Артемий in Ceph — русскоговорящее сообщество
почему может не работать такая схема?
источник

AS

Alexey Shanko in Ceph — русскоговорящее сообщество
Артемий
вроде как в ceph есть понятие cache tiering, если я как раз сделаю такие диски на ssd по 200-500gb (как раз столько примерно пишет одна нода в неделю), то вся запись и чтение того что только что было записанно в приоритете окажется на этих нодах, а в фоне он сделает реплику в другой дц с большими hdd. Эти ноды под которые кеш нужен не то чтобы большие объемы пишут, просто он эти файлы потом читает по 3-4 раза и очень не хочется чтобы он их читал из другого дц, так как там критично время. (грубо говоря взять 150 фоток, пережать и запихнуть в pdf, отдать клиенту).
говно
источник

AS

Alexey Shanko in Ceph — русскоговорящее сообщество
даже разрабы цефа так говорят, но чуть более вежливо
источник

А

Артемий in Ceph — русскоговорящее сообщество
говно, но терпимо и работает, или прям совсем все ломаться будет?
источник

AS

Alexey Shanko in Ceph — русскоговорящее сообщество
Артемий
говно, но терпимо и работает, или прям совсем все ломаться будет?
сначала терпимо работает а потом будет ломаться
источник

AS

Alexey Shanko in Ceph — русскоговорящее сообщество
в чате однако есть один человек который о нем сносно отзывается
источник

А

Артемий in Ceph — русскоговорящее сообщество
я так понимаю что говно когда рандомный доступ и ему приходится ребалансить
источник

А

Артемий in Ceph — русскоговорящее сообщество
а если только к последним записанным то вроде норм должно быть? это узкий объем данных, при чем вероятно меньше 100-500гигов, дальше вероятность чтения падает раз в 100
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
При таком в принципе да, возможно
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
Другое дело, а какая скорость канала в другой дц?
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
И задержка
источник

А

Артемий in Ceph — русскоговорящее сообщество
питер-hetzner
источник

А

Артемий in Ceph — русскоговорящее сообщество
но говорю, там объем данных не очень большой, гигов 200 в неделю
источник

А

Артемий in Ceph — русскоговорящее сообщество
и спустя неделю с вероятностью 95% уже никто не будет читать
источник

А

Артемий in Ceph — русскоговорящее сообщество
при этом накопилось за все время 120TB, и в любой момент могут запросить случайный документ, но редко
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
мужики, реально хватит уже )
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
ceph между дц, это сразу не вариант. И ни какой cache tier вам не поможет, он для другого
источник

А

Артемий in Ceph — русскоговорящее сообщество
просто вроде это как раз то что я хочу
Writeback Mode: When admins configure tiers with writeback mode, Ceph clients write data to the cache tier and receive an ACK from the cache tier. In time, the data written to the cache tier migrates to the storage tier and gets flushed from the cache tier. Conceptually, the cache tier is overlaid “in front” of the backing storage tier. When a Ceph client needs data that resides in the storage tier, the cache tiering agent migrates the data to the cache tier on read, then it is sent to the Ceph client. Thereafter, the Ceph client can perform I/O using the cache tier, until the data becomes inactive. This is ideal for mutable data (e.g., photo/video editing, transactional data, etc.).
источник