Size: a a a

Ceph — русскоговорящее сообщество

2020 November 23

LP

Lazy Pepper in Ceph — русскоговорящее сообщество
Доброго дня!
Скажите, как расчитать пул не по размеру PG а по объему данных. Есть задача иметь в кластере одновременно rdb и cephfs (соответственно + два пула) Как расчитать? У меня на стенде 256 PG (маленький тестовый стенд) общий объем примерно 80Gb и вот я хочу например выделить 60 Gb под rdb и 20 для fs. Есть есть что почитать буду очень признателен.
источник

A

Alex in Ceph — русскоговорящее сообщество
Lazy Pepper
Доброго дня!
Скажите, как расчитать пул не по размеру PG а по объему данных. Есть задача иметь в кластере одновременно rdb и cephfs (соответственно + два пула) Как расчитать? У меня на стенде 256 PG (маленький тестовый стенд) общий объем примерно 80Gb и вот я хочу например выделить 60 Gb под rdb и 20 для fs. Есть есть что почитать буду очень признателен.
Что рассчитать-то надо?
источник

LP

Lazy Pepper in Ceph — русскоговорящее сообщество
Alex
Что рассчитать-то надо?
Надо же пулы содать, я не пойму сколько PG - это какой объем
источник

A

Alex in Ceph — русскоговорящее сообщество
Объект в рбд 4м
источник

A

Alex in Ceph — русскоговорящее сообщество
Раздели — получишь кол-во объектов
источник

LP

Lazy Pepper in Ceph — русскоговорящее сообщество
Alex
Объект в рбд 4м
А кол-во объектов в группе ? или объект это и есть группа т.е. 256 объектов ?
источник

A

Alex in Ceph — русскоговорящее сообщество
Начните с изучения архитектуры
источник

LP

Lazy Pepper in Ceph — русскоговорящее сообщество
Так вроде читал. но вот, не все понял )
источник

A

Alex in Ceph — русскоговорящее сообщество
Lazy Pepper
Так вроде читал. но вот, не все понял )
Еще раз :)
источник

R

Roman in Ceph — русскоговорящее сообщество
Народ, а кто нибудь гео-распределённый ceph собирал? интересует прежде всего S3 и NFS
источник

R

Roman in Ceph — русскоговорящее сообщество
время отклика не критично, но расстояния большие
источник

R

Roman in Ceph — русскоговорящее сообщество
чтобы ceph не разваливался при каждом чихе и не потере связи, т.е. чтобы не пришлось гемороиться с переподключением и прочими плюшками
источник

А

Александр in Ceph — русскоговорящее сообщество
Roman
чтобы ceph не разваливался при каждом чихе и не потере связи, т.е. чтобы не пришлось гемороиться с переподключением и прочими плюшками
выше вроде рекомендовали не один большой цеф собирать, а несколько маленьких (по регионам) с репликацией друг в друга
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Александр
выше вроде рекомендовали не один большой цеф собирать, а несколько маленьких (по регионам) с репликацией друг в друга
+
источник

R

Roman in Ceph — русскоговорящее сообщество
да мне чисто маленький надо, на 3 хоста, хочется nfs общий сделать
источник

R

Roman in Ceph — русскоговорящее сообщество
по 1 осд на ноду, максимум 3 будет
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
тогда ceph вообще не нужен
источник

A

Alex in Ceph — русскоговорящее сообщество
Irek Fasikhov
тогда ceph вообще не нужен
++
источник

R

Roman in Ceph — русскоговорящее сообщество
это да, но не хочется мастырить csync2 и прочие дела
источник

R

Roman in Ceph — русскоговорящее сообщество
ну и опять же S3 на minio не хочется
источник