Size: a a a

Ceph — русскоговорящее сообщество

2021 October 15

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Процентов на 95 вроде загрузился
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
А типичный обект какого размера был, примерно?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Там картинки не большие летели, чтото типа 256-1м
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
При среднем 512к под 20гбит выходит если я в арифметике не налажал
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Не там же не все 100% это put get
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Там еще head delete летели
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
20 там ни как быть не могло
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Там интерфейс 10г
источник
2021 October 16

k

kiosaku in Ceph — русскоговорящее сообщество
как бы ускорить backfilling на octopus, помимо того, чтобы сделать osd_max_backfills > 1 ?
источник
2021 October 17

К

Камиль in Ceph — русскоговорящее сообщество
osd max backfills - повысить
osd recovery max active - повысить
osd recovery op priority  - сделать =1
Только это непременно вызовет деградацию полезной нагрузки от клиентов, ещё osd-ки могут начать рестартовать
источник

k

kiosaku in Ceph — русскоговорящее сообщество
ну, сейчас где-то 4к read, 1k write, поэтому max active не трогал … попробую, thx
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
recovery sleep еще забыли, если не 0, в 0 его
источник

k

kiosaku in Ceph — русскоговорящее сообщество
сейчас гляну конфиг, но там разные типы дисков в разных пулах
источник

k

kiosaku in Ceph — русскоговорящее сообщество
osd_recovery_sleep = 0.000000
osd_recovery_sleep_hdd = 0.100000
osd_recovery_sleep_hybrid = 0.025000
osd_recovery_sleep_ssd = 0.000000
источник

k

kiosaku in Ceph — русскоговорящее сообщество
имхо, hdd трогать не стоит, ибо production, контейнеры чего-то там обрабатывают
источник

k

kiosaku in Ceph — русскоговорящее сообщество
ещё вопрос: нарисовался “фантомный” osd в состоянии exists,new. по идее, надо бы убить через purge-new, т.к. в osd tree болтается в состоянии down и “привязан” к root-у. лучше дождаться окончания rebalance-а или без разницы?
источник

k

kiosaku in Ceph — русскоговорящее сообщество
ну и вот такое:

{
   "ceph version 15.2.13 (1f5c7871ec0e36ade641773b9b05b6211c308b9d) octopus (stable)": 12,
   "ceph version 15.2.14 (e3964f3ac2e00e5baacdec60b36e45d1c2e8571b) octopus (stable)": 8
}
источник

k

kiosaku in Ceph — русскоговорящее сообщество
обновлять через set noout ?
источник
2021 October 18

ЕБ

Евгений Баженов... in Ceph — русскоговорящее сообщество
доброе время суток, коллеги! подскажите новичку в ceph, пжл. у меня есть два ЦОДа, между ними размазан кластер ceph. вопрос: как правильно сделать, чтобы реплика обязательно создавалась в обоих ЦОДах? подозреваю, что можно через crushmap. не подскажете, в каком направлении смотреть?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Доброе, все правильно копать в сторону crush map rules.
источник