Size: a a a

Ceph — русскоговорящее сообщество

2020 June 16

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Lion Simba
у меня мултисайт
мультисайт cephfs? Когда разработали? )
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
все таки cephfs или rgw
источник

RS

Roman Shevchenko in Ceph — русскоговорящее сообщество
Irek Fasikhov
мультисайт cephfs? Когда разработали? )
два кластера на разных площадках
источник

RS

Roman Shevchenko in Ceph — русскоговорящее сообщество
дело раскрыто
источник

RS

Roman Shevchenko in Ceph — русскоговорящее сообщество
и он назвал это мультисайт
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
спрашивали зачем я и ответил что у меня два кластера, s3 через мултисайт. а вот cephfs через что синкать
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Irek Fasikhov
мультисайт cephfs? Когда разработали? )
в пацифике, в 202х какомто
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
rclone для cephfs? или только для s3
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Lion Simba
rclone для cephfs? или только для s3
он умеет синкать две папки
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
две папки ладно, с cephfs никто не справляется)
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Lion Simba
две папки ладно, с cephfs никто не справляется)
окай. в cpehfs нет данной функциональности
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
ты можешь записать в глубокую альфу
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
либо ты можешь использовать rclone/rsync которые будет синкать cephfs как локакльные папки
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
я достаточно разжевал?
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
на форумах пишут что rsync загибается когда синкает данные с cephfs
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
Alexander mamahtehok
я достаточно разжевал?
😅
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
мы пробовали lsyncd
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
он не справился
источник

LS

Lion Simba in Ceph — русскоговорящее сообщество
данных многовато для него
источник

AA

Alexandr Andreichiko... in Ceph — русскоговорящее сообщество
Ребят, всем привет, помогите с цефом в проде.
Жил был ceph со времен FIREFLY, успешно обновлялся и не вызывал проблем до сегодняшнего дня. Вчера обновил его с luminous до nautilus. Обновление прошло штатно, без каких либо ошибок.
После обновления, в кластере выстреливают slow ops на nvme дисках.
Ceph состоит из 8 нод, в каждой 8 HDD(hdd-pool) + 2 nvme(nvme-pool), между нодами cluster_network 10G.  
Slow ops появляются на дисках в nvme-pool, всего в кластере 16 nvme.  
8 slow ops, oldest one blocked for 41 sec, daemons [osd.0,osd.12,osd.30,osd.4,osd.40,osd.46,osd.49,osd.5,osd.60,osd.69]
Уменьшил влияние deep-scrub'a. Так же было замечено, что слоу опс генерятся во время compaction у rocksdb.
источник